IT之家 5 月 29 日消息,科技媒體 theregister 昨日(5 月 28 日)發(fā)布博文,報(bào)道稱以 Perplexity 為代表的 AI 搜索工具雖然表現(xiàn)要優(yōu)于谷歌等傳統(tǒng)搜索引擎,但在不斷地版本更迭后,搜索結(jié)果質(zhì)量不升反降,AI 模型崩潰(model collapse)現(xiàn)象正在顯現(xiàn)。
該媒體指出以 Perplexity 為代表的 AI 搜索工具曾被視為傳統(tǒng)搜索引擎的強(qiáng)力替代品,其搜索結(jié)果一度比谷歌更精準(zhǔn)。
不過近期不少用戶發(fā)現(xiàn),AI 搜索反饋的硬數(shù)據(jù)(如市場(chǎng)份額或財(cái)務(wù)數(shù)據(jù)等),并未來自權(quán)威的美國(guó)證券交易委員會(huì)(SEC)要求的 10-K 年度報(bào)告,常常引用不可靠來源。用戶若不明確指定數(shù)據(jù)來源,得到的結(jié)果往往令人費(fèi)解。
IT之家援引博文介紹,這種問題并非 Perplexity 獨(dú)有,主流 AI 搜索機(jī)器人均存在類似“可疑”結(jié)果的現(xiàn)象。
該媒體認(rèn)為 AI 搜索質(zhì)量下降的根源,在于“模型崩潰”(model collapse),即 AI 系統(tǒng)因依賴自身輸出訓(xùn)練,導(dǎo)致準(zhǔn)確性、多樣性和可靠性逐步喪失。錯(cuò)誤累積、稀有數(shù)據(jù)(tail data)丟失以及反饋循環(huán)是三大主因。
錯(cuò)誤累積讓每一代模型繼承并放大前代的缺陷;稀有數(shù)據(jù)丟失使罕見事件和概念逐漸模糊;反饋循環(huán)則強(qiáng)化狹窄模式,輸出重復(fù)或偏見內(nèi)容。
為提升 AI 表現(xiàn),檢索增強(qiáng)生成(RAG)技術(shù)被廣泛應(yīng)用,讓大型語(yǔ)言模型(LLMs)從外部數(shù)據(jù)庫(kù)提取信息,減少“幻覺”(hallucination)現(xiàn)象。
然而,彭博社研究發(fā)現(xiàn),即便采用 RAG,包括 GPT-4o、Claude-3.5-Sonnet 等 11 個(gè)領(lǐng)先模型在處理 5000 多個(gè)有害提示時(shí),仍會(huì)輸出錯(cuò)誤結(jié)果。更糟糕的是,RAG 增加了泄露客戶隱私數(shù)據(jù)、生成誤導(dǎo)性市場(chǎng)分析及偏見投資建議的風(fēng)險(xiǎn)。
AI 模型崩潰的后果正在加速顯現(xiàn)。用戶和企業(yè)為追求效率,傾向于依賴 AI 生成內(nèi)容,而非投入人力創(chuàng)作高質(zhì)量?jī)?nèi)容。從學(xué)生作業(yè)到偽造科研論文,甚至虛構(gòu)小說,AI 的“垃圾輸入、垃圾輸出”(Garbage In / Garbage Out,GIGO)現(xiàn)象無處不在。