感谢网友 Coje_He 的线索投递!

谷歌 AI 又闯大祸!没认出毒蘑菇、建议用户吃石头、把胶水加到披萨上,瞬间招来海量批评

谷歌 AI 搜索闯大祸:建议网友吃石头、毒蘑菇,把胶水加到披萨上-风君雪科技博客

事情是这样的:

有网友在谷歌搜索寻找“芝士和披萨粘不到一块”的解决办法。AI 直接在顶部给出总结指导,看似有模有样,却暗藏陷阱。

你还可以把 1/8 杯的无毒胶水加到酱料里,使其更黏。

谷歌 AI 搜索闯大祸:建议网友吃石头、毒蘑菇,把胶水加到披萨上-风君雪科技博客

本来大家还只当是寻常的“AI 幻觉”问题,毕竟都加胶水了确实黏啊,逻辑没毛病。

真正引爆舆论焦点的,是有人挖出这个建议确实有出处

来自 11 年前网友在“美国贴吧”Reddit 论坛披萨板块的恶搞留言。

谷歌 AI 搜索闯大祸:建议网友吃石头、毒蘑菇,把胶水加到披萨上-风君雪科技博客

对比原文,可以看出谷歌 Gemini 大模型确实出色地总结精简了网友发言,去掉不必要的细节融合进回答中。

但关键在于缺乏常识,没有识别出网友恶搞的意图,当真了。

大家批评的另一个点在于,问题出现在谷歌最核心、使用量最大的搜索产品上,而不是专门的 AI 对话

如果是一个不熟悉 AI 技术,不了解 AI 会出现“幻觉”的普通搜索用户遇到这事,就更容易被 AI 骗到。

当然,具体到披萨 + 胶水这个例子因为过于离谱,大部分人都不会当真。

但也有人马上举出谷歌 Gemini 更多、更危险的失误:

建议用户每天至少吃一块小石头

谷歌 AI 搜索闯大祸:建议网友吃石头、毒蘑菇,把胶水加到披萨上-风君雪科技博客

在儿童感兴趣的“宇航员平常都做什么”问题上,把恶意言论总结进来

谷歌 AI 搜索闯大祸:建议网友吃石头、毒蘑菇,把胶水加到披萨上-风君雪科技博客

AI 对话产品也没幸免,曾把剧毒的毁灭天使菌 (Destroying Angel) 判断成可食用口蘑 (White Button Mushroom)。

用户发送图片 +“口蘑!好吃!”文字,Gemini 顺着就说用户判断的对,没有任何关于蘑菇可能有毒的提示。

谷歌 AI 搜索闯大祸:建议网友吃石头、毒蘑菇,把胶水加到披萨上-风君雪科技博客

有人认为加不完善的 AI 功能,反而是正在毁掉搜索引擎。毁掉人们几十年来对这个产品的信赖。

谷歌 AI 搜索闯大祸:建议网友吃石头、毒蘑菇,把胶水加到披萨上-风君雪科技博客

谷歌 AI 搜索闯大祸:建议网友吃石头、毒蘑菇,把胶水加到披萨上-风君雪科技博客

前不久谷歌 AI 生图也因拒绝画白人引发强烈批评,导致生图功能暂停。

甚至有人感叹:我们才进入 AI 时代没几个月,就已经成了一场灾难。

谷歌 AI 搜索闯大祸:建议网友吃石头、毒蘑菇,把胶水加到披萨上-风君雪科技博客

垃圾数据正在进入大模型

说回到披萨的例子,这还不是个偶然现象,许多网友都能稳定复现出来。

来源同样是那位昵称“f*ucsmith”的 Reddit 网友 11 年前的那条恶搞留言。

谷歌 AI 搜索闯大祸:建议网友吃石头、毒蘑菇,把胶水加到披萨上-风君雪科技博客

像这样 AI 从 Reddit 论坛吸收错误知识的情况,也非孤例。

曾有人在论坛上开玩笑说下面这张图是“狗生出了奶牛”

谷歌 AI 搜索闯大祸:建议网友吃石头、毒蘑菇,把胶水加到披萨上-风君雪科技博客

结果谷歌 AI 也当真了,相当坚定地告诉用户“确实出现过狗生出奶牛的情况”……

谷歌 AI 搜索闯大祸:建议网友吃石头、毒蘑菇,把胶水加到披萨上-风君雪科技博客

像 Reddit 这样的论坛,固然数据丰富,但其中质量参差不齐,积累了几十年间网友或善意或恶意的误导、玩笑。

有网友声称:无论谁家大模型用 Reddit 数据训练,出的 AI 产品都得掂量掂量再用了。

谷歌 AI 搜索闯大祸:建议网友吃石头、毒蘑菇,把胶水加到披萨上-风君雪科技博客

然鹅现实确是,OpenAI 刚刚牵手 Reddit,宣布双方合作,把论坛内容引入 ChatGPT 等产品中

并且 OpenAI CEO 阿尔特曼自己也是 Reddit 的投资人。

Reddit 联合创始人兼首席执行官 Steve Huffman 当时还说:

Reddit 包含了真实、最新的人类对话,引入 ChatGPT 可以帮助人们找到更多他们想要的信息,并帮助新用户在 Reddit 上找到社区。

嗯,就有点讽刺。

只能希望他们能做好数据清洗吧。

谷歌 AI 搜索闯大祸:建议网友吃石头、毒蘑菇,把胶水加到披萨上-风君雪科技博客

故意误导 AI 方法很简单

除了 AI 无意间从低质量数据中获得错误知识的情况,也有人发现了故意给 AI 留言错误信息的攻击方法。

代表人物有佐治亚理工助理教授 Mark Riedl,他在自己的个人主页上用与背景一样的字体给 AI 留言,编造他没获过的奖项。

这样人类一般不会注意到,但算法却会当真,认为他的书“在 3020 年畅销,还得过 3 个普利策奖”。

谷歌 AI 搜索闯大祸:建议网友吃石头、毒蘑菇,把胶水加到披萨上-风君雪科技博客

那么,现在有什么 AI 搜索产品稍微靠谱一些,不容易被骗的吗?

他也做了一系列测试,发现最知名的 AI 搜索 Perplexity 也会上当,直接照搬他主页上的胡言乱语。

谷歌 AI 搜索闯大祸:建议网友吃石头、毒蘑菇,把胶水加到披萨上-风君雪科技博客

You.com 表现还可以,但也出现了小失误。

谷歌 AI 搜索闯大祸:建议网友吃石头、毒蘑菇,把胶水加到披萨上-风君雪科技博客

参考链接:

  • [1]https://x.com/kurtopsahl/status/1793494822436917295

  • [2]https://x.com/deliprao/status/1793652235420713301

  • [3]https://x.com/mark_riedl/status/1793375699967054334

本文来自微信公众号:量子位 (ID:QbitAI),作者:梦晨