谷歌 AI 又闖大禍!沒認出毒蘑菇、建議用戶吃石頭、把膠水加到披薩上,瞬間招來海量批評。
事情是這樣的:
有網友在谷歌搜索尋找“芝士和披薩粘不到一塊”的解決辦法。AI 直接在頂部給出總結指導,看似有模有樣,卻暗藏陷阱。
你還可以把 1/8 杯的無毒膠水加到醬料里,使其更黏。
本來大家還只當是尋常的“AI 幻覺”問題,畢竟都加膠水了確實黏啊,邏輯沒毛病。
真正引爆輿論焦點的,是有人挖出這個建議確實有出處:
來自 11 年前網友在“美國貼吧”Reddit 論壇披薩板塊的惡搞留言。
對比原文,可以看出谷歌 Gemini 大模型確實出色地總結精簡了網友發言,去掉不必要的細節融合進回答中。
但關鍵在于缺乏常識,沒有識別出網友惡搞的意圖,當真了。
大家批評的另一個點在于,問題出現在谷歌最核心、使用量最大的搜索產品上,而不是專門的 AI 對話。
如果是一個不熟悉 AI 技術,不了解 AI 會出現“幻覺”的普通搜索用戶遇到這事,就更容易被 AI 騙到。
當然,具體到披薩 + 膠水這個例子因為過于離譜,大部分人都不會當真。
但也有人馬上舉出谷歌 Gemini 更多、更危險的失誤:
建議用戶每天至少吃一塊小石頭。
在兒童感興趣的“宇航員平常都做什么”問題上,把惡意言論總結進來。
AI 對話產品也沒幸免,曾把劇毒的毀滅天使菌 (Destroying Angel) 判斷成可食用口蘑 (White Button Mushroom)。
用戶發送圖片 +“口蘑!好吃!”文字,Gemini 順著就說用戶判斷的對,沒有任何關于蘑菇可能有毒的提示。
有人認為加不完善的 AI 功能,反而是正在毀掉搜索引擎。毀掉人們幾十年來對這個產品的信賴。
前不久谷歌 AI 生圖也因拒絕畫白人引發強烈批評,導致生圖功能暫停。
甚至有人感嘆:我們才進入 AI 時代沒幾個月,就已經成了一場災難。
說回到披薩的例子,這還不是個偶然現象,許多網友都能穩定復現出來。
來源同樣是那位昵稱“f*ucsmith”的 Reddit 網友 11 年前的那條惡搞留言。
像這樣 AI 從 Reddit 論壇吸收錯誤知識的情況,也非孤例。
曾有人在論壇上開玩笑說下面這張圖是“狗生出了奶牛”。
結果谷歌 AI 也當真了,相當堅定地告訴用戶“確實出現過狗生出奶牛的情況”……
像 Reddit 這樣的論壇,固然數據豐富,但其中質量參差不齊,積累了幾十年間網友或善意或惡意的誤導、玩笑。
有網友聲稱:無論誰家大模型用 Reddit 數據訓練,出的 AI 產品都得掂量掂量再用了。
然鵝現實確是,OpenAI 剛剛牽手 Reddit,宣布雙方合作,把論壇內容引入 ChatGPT 等產品中。
并且 OpenAI CEO 阿爾特曼自己也是 Reddit 的投資人。
Reddit 聯合創始人兼首席執行官 Steve Huffman 當時還說:
Reddit 包含了真實、最新的人類對話,引入 ChatGPT 可以幫助人們找到更多他們想要的信息,并幫助新用戶在 Reddit 上找到社區。
嗯,就有點諷刺。
只能希望他們能做好數據清洗吧。
除了 AI 無意間從低質量數據中獲得錯誤知識的情況,也有人發現了故意給 AI 留言錯誤信息的攻擊方法。
代表人物有佐治亞理工助理教授 Mark Riedl,他在自己的個人主頁上用與背景一樣的字體給 AI 留言,編造他沒獲過的獎項。
這樣人類一般不會注意到,但算法卻會當真,認為他的書“在 3020 年暢銷,還得過 3 個普利策獎”。
那么,現在有什么 AI 搜索產品稍微靠譜一些,不容易被騙的嗎?
他也做了一系列測試,發現最知名的 AI 搜索 Perplexity 也會上當,直接照搬他主頁上的胡言亂語。
You.com 表現還可以,但也出現了小失誤。
參考鏈接:
[1]https://x.com/kurtopsahl/status/1793494822436917295
[2]https://x.com/deliprao/status/1793652235420713301
[3]https://x.com/mark_riedl/status/1793375699967054334
本文來自微信公眾號:量子位 (ID:QbitAI),作者:夢晨
本文鏈接:http://www.tebozhan.com/showinfo-45-4412-0.html谷歌 AI 搜索闖大禍:建議網友吃石頭、毒蘑菇,把膠水加到披薩上
聲明:本網頁內容旨在傳播知識,若有侵權等問題請及時與本網聯系,我們將在第一時間刪除處理。郵件:2376512515@qq.com