最近一周,網(wǎng)上關(guān)于谷歌AI overview(AI概覽)的討論沸沸揚揚,簡直快要扛起X平臺科技區(qū)的流量大旗。 這款在2023年5月就推出測試版的AI搜索,在正式上線前已處理了超十億次查詢,卻依舊沒能逃過翻車的命運,原因是它仍無法判斷“人能不能吃石頭、喝膠水”。 5月30日,谷歌副總裁、谷歌搜索負(fù)責(zé)人利茲·里德 (Liz Reid) 在官方博客撰文回應(yīng),側(cè)面承認(rèn)了AI overview存在問題,并簡要概述了谷歌為改善這個系統(tǒng)將會采取的相關(guān)措施。 回顧一下,AI概覽功能于5月15日在谷歌I/O大會上正式官宣,是谷歌為其最盈利的搜索業(yè)務(wù)進(jìn)行的重磅升級。當(dāng)用戶使用AI概覽搜索某話題時,可直接在頁面頂部看到AI生成的答案,無需再一個個地點開相關(guān)網(wǎng)頁。 例:詢問谷歌“如何減肥” 然而,AI概覽并非是知識源,它只能從網(wǎng)絡(luò)上抓取曾由人類發(fā)布的信息,然后再進(jìn)行匯總以生成某種看似連貫且智能的東西。如果它檢索到的某個前排信息恰好是錯誤的,那它完全有可能生成出不合理乃至啼笑皆非的答案。 比如“通過添加膠水來防止奶酪從披薩上滑落”。 “鯊魚比月球還要蒼老?!?/span> “孕婦每天可吸2-3根煙。” “美國前總統(tǒng)約翰·亞當(dāng)斯從大學(xué)畢業(yè)了21次?!?/span> “互聯(lián)網(wǎng)上一切信息都是真的?!?/span> 諸如此類。 由于谷歌頻頻出現(xiàn)事實錯誤,公眾對其的信任度一再滑坡。如果AI概覽連常識都無法具備,那它所表現(xiàn)出的創(chuàng)造性都是假象嗎? 谷歌AI概覽為什么總是出錯? 讓我們先回到利茲·里德5月30日發(fā)表的那篇博客:“AI概覽,關(guān)于上周”。 里德首先了回應(yīng)了關(guān)于大模型幻覺的問題,直言AI概覽出錯并非因為幻覺。為什么這么說呢?因為AI概覽的工作原理要求它一切回復(fù)都要有據(jù)可查。 AI概覽的工作方式不同于其它大語言模型,如果說其他LLM更擅長輸出,那么AI概覽則堅持了谷歌的本心,“更擅于搜索”。谷歌一直以提供高質(zhì)量結(jié)果著稱,這要求AI概覽的回復(fù)不僅包括文本,還要附上信息源鏈接。 里德?lián)苏J(rèn)為,如果將出現(xiàn)幻覺的可能性排除,那么AI概覽出錯的原因只能是:“誤解查詢、誤解網(wǎng)絡(luò)上的語言細(xì)微差別,或者沒有大量可用的有用信息”,最后一種也被稱作信息鴻溝。 細(xì)心網(wǎng)友很快發(fā)現(xiàn)了里德回復(fù)中的漏洞,即谷歌所稱的“高質(zhì)量結(jié)果”到底是什么?作為科技公司,支撐谷歌檢索質(zhì)量的一直就只有算法。也就是說,所謂的“高質(zhì)量結(jié)果”不過是先基于算法假設(shè)進(jìn)行推演(且不總是精準(zhǔn)),然后再由AI概覽在算法推薦的前排信息中匯總出來的。 所以,AI概覽的致命缺陷是它只覆蓋到算法推薦的頂端網(wǎng)頁所發(fā)布的內(nèi)容,而對其他信息視而不見。 里德也提到,在谷歌內(nèi)部測試中,AI概覽會在每700萬次查詢中出現(xiàn)一次錯誤。置換到網(wǎng)絡(luò)量級下,每天數(shù)十億次的查詢必然會發(fā)生更多異常。 除此之外,在網(wǎng)友發(fā)布的很多AI概覽笑話中,問答平臺Reddit也難以隱身。比如本次事件的起源,就是網(wǎng)友Gizmodo在5月22日詢問谷歌“如何防止奶酪從披薩上滑落”。事情的后續(xù)大家也都知道了——AI概覽援引了Reddit上一篇11年前的搞笑答案,推薦網(wǎng)友使用“無毒膠水”。 Reddit可理解成美版知乎,近年來,它多次被外國網(wǎng)友奉為“比谷歌更好的搜索引擎”。 而之所以如此,是因為越來越多的人會在使用谷歌時附上“site:Reddit.com”,直接將谷歌架空只看Reddit答案。 據(jù)悉,谷歌已占據(jù)全球搜索引擎90%以上的份額,幾乎達(dá)到了它所能達(dá)到的最大規(guī)模。如果想要保持利潤,它需要增強(qiáng)用戶粘性,滿足用戶喜好。所以在今年二月,谷歌壕擲6000萬美元,與Reddit達(dá)成合作。 然而從AI概覽的表現(xiàn)來看,谷歌這一步并不高明,因為Reddit的信息總是“人性使然”。 網(wǎng)友心水Reddit的一大原因正是這個平臺上都是活人,且有很多權(quán)威人士。在產(chǎn)品測評和人生經(jīng)歷等方面,Reddit更能為網(wǎng)友提供真實建議,且遠(yuǎn)比谷歌中立(因為谷歌廣告太多)。同時,Reddit的內(nèi)容排名也更為公道,依據(jù)是轉(zhuǎn)評贊,不會出現(xiàn)谷歌把中等質(zhì)量的內(nèi)容放在優(yōu)質(zhì)內(nèi)容前的情況。 但Reddit同樣在很多方面充滿爭議和矛盾,尤其是該平臺的內(nèi)容充斥著大量垃圾帖子和陰謀論。當(dāng)真人在Reddit上敞開心扉時,Reddit勢必要同時接受人類最好和最壞的一面。 一時間,AI概覽口碑崩壞,加上谷歌本身不允許用戶禁用該功能,關(guān)閉AI概覽的教程也就在網(wǎng)上紛至沓來。 如科技媒體The verge就提供了三種關(guān)閉方法:
主打一個面面俱到,唯恐網(wǎng)友學(xué)不會。 AI概覽的語言天賦強(qiáng)悍, 但在智力上還只是半成品 當(dāng)前市面上的大模型太多,很容易在內(nèi)卷中卷出鄙視鏈?!邦^號AI玩家”也只需微微一試,便可知哪家大模型更懂常識。 既然谷歌標(biāo)榜自己搜索結(jié)果的質(zhì)量高,“頭號AI玩家”專門搬出了能檢索中文語庫高質(zhì)量陣地——微信公眾號的騰訊元寶,來與之一較高下。 不出所料,元寶給出的答案的確更好。 為控制變量,“頭號AI玩家”問了元寶相同的問題:如何防止奶酪從披薩上滑落。 很讓人驚喜,元寶不僅頓時讀懂了我的用意,還在回答里加入了“三分譏笑”,明說谷歌AI概覽的建議是錯誤,并給出了符合科學(xué)且完全可行的建議,如“使用不粘披薩石或烤盤”、“調(diào)整烤箱溫度”、“在披薩上撒一層薄薄的面粉或玉米淀粉”。 兩相比較之下,AI概覽的確顯得不夠聰明了,也難怪它扛不住網(wǎng)友們的釣魚執(zhí)法。 然而,對于谷歌此次的公開出丑,多位內(nèi)部人士表示早已想到。 AI概覽原型Beta前測試員Lily Ray接受采訪時稱,Beta階段的漏洞百出讓AI概覽很難不翻車。 谷歌前UX設(shè)計員Scott Jenson也在一周前發(fā)表領(lǐng)英動態(tài),指出谷歌在AI項目上毫無動力,倉皇推出AI概覽不過是競爭壓力使然。 5月31日,《麻省理工技術(shù)評論》發(fā)表文章,稱AI概覽中的Gemini模型大概率使用了RAG(檢索增強(qiáng)生成)技術(shù),試圖使AI概覽更聰明。雖然谷歌發(fā)言人沒有證實這一點,但RAG對AI的智商幫不上大忙。 RAG技術(shù)可以使AI在調(diào)取信息時更具相關(guān)性,同時也會使AI認(rèn)為相關(guān)即正確,省去了質(zhì)疑信息這一環(huán)。當(dāng) RAG 系統(tǒng)遇到相互矛盾的信息時,它也無法判斷哪個版本更好。相反,它可能會將兩個回答雜糅,生成一個極具誤導(dǎo)性的答案。 可以說,這篇文章似乎更坐實了AI概覽是谷歌獻(xiàn)祭給商戰(zhàn)的犧牲品。 其實,谷歌在AI戰(zhàn)略上的乏力早有端倪。在上月谷歌和OpenAI的兩場直播中,相比OpenAI搶先一步的直播時機(jī)和干貨滿滿的26分鐘,谷歌的兩小時顯得過于冗長。同時,谷歌選擇用ppt對抗OpenAI的實操演示,也在策略上略顯被動。其所承諾的許多即將上線的新功能,也因發(fā)布日期的模糊不清被質(zhì)疑為“畫餅”。 谷歌的這份緊迫感也不難理解,在AI的步步緊逼之下,傳統(tǒng)搜索引擎的市場正在遭受侵襲。一旦用戶習(xí)慣了AI的便捷,很可能會減少對搜索引擎的依賴。尤其是ChatGPT已不斷拓展其免費的邊界,積累了過億的周活躍用戶,進(jìn)一步加劇了這一趨勢。 但谷歌并非無一技之長,它始終對語言學(xué)表現(xiàn)出熱情。 早在2017年,谷歌的一支技術(shù)團(tuán)隊就前瞻性地創(chuàng)新了優(yōu)化神經(jīng)網(wǎng)絡(luò)和深度學(xué)習(xí)的方法,旨在從繁復(fù)的長文本中提煉出精準(zhǔn)精悍的答案,而這次努力竟不經(jīng)意間催生了后續(xù)Chatgpt和谷歌AI等所依賴的大語言模型。 不過正如我國那句諺語,“熟讀唐詩三百首,不會作詩也會吟”。相較于開發(fā)創(chuàng)造性思維,培養(yǎng)語言能力則要簡單得多,谷歌大概率押錯寶了。 谷歌無論如何也不會想到,穿上谷歌嫁衣的GPT會搶先乘風(fēng)起。 AI不可能解決一切問題 多家大模型都曾翻過車,不止是谷歌Gemini。 此前,The Verge主編Nilay Patel在完成對谷歌CEO的深度訪談后,嘗試將完整版錄音一次性喂給chatgpt,讓其輔助整理。遺憾的是結(jié)果并不理想,Chatgpt生成的內(nèi)容出現(xiàn)了明顯的偏差,編造出了雙方未曾提及的多個話題。 無獨有偶,Meta于2022年推出Galactica AI系統(tǒng),也因鼓勵用戶如采取吃玻璃等危險行為而草草收場。 AI頻繁被指存在幻覺,但人類期許AI能百分百解決問題又何嘗不是一場幻覺。 知名AI專家、紐約大學(xué)神經(jīng)科學(xué)名譽(yù)教授加里·馬庫斯 (Gary Marcus) 曾深刻指出,AI實現(xiàn)80%的正確率或許簡單,因為這80%的數(shù)據(jù)可以由人為標(biāo)注,但追求余下20%的完美度將無比艱難。 人類需要承認(rèn),LLM根本不適合所有地方。 大語言模型如Gemini和Chatgpt在許多應(yīng)用場景中顯得格格不入,LLM也不會是提供具體、事實答案的可靠工具。如果人類強(qiáng)行將其植入不適配的領(lǐng)域,只會對我們造成不必要的負(fù)面影響。但也需要承認(rèn),它們在處理清晰界定的數(shù)據(jù)分析、精煉文本和其他相對低級且客觀明確的任務(wù)時,又能表現(xiàn)出驚人的創(chuàng)造力。 AI的非全能性恰恰也是其安全性所在。以谷歌AI概覽為例,谷歌目前的回答里附帶著網(wǎng)頁鏈接的做法,既是在輔助用戶搜索,也是在維護(hù)廣告商和出版商的利益。 如果AI真能無所不能,由人創(chuàng)作的內(nèi)容界面將會受到更嚴(yán)峻的流量挑戰(zhàn)。比如 Meta就已經(jīng)公開拒絕向任何新聞網(wǎng)站發(fā)送流量,明確表達(dá)了其減少新聞支持的傾向。 然而,即便是知道了這一點,也難以挽回谷歌成為眾矢之的的現(xiàn)狀。畢竟,現(xiàn)在它連承認(rèn)“圣誕老人不存在”也要被指控,因為這可能會“澆滅孩子們的童心”。 |
19款電子扎帶
電路板識別電子標(biāo)簽