北京时间 5 月 2 日消息,有“AI 教父”之称的杰弗里・辛顿 (Geoffrey Hinton) 周一宣布,他已经从谷歌公司离职。半个世纪以来,辛顿一直在培养 ChatGPT 等聊天机器人背后的核心技术。但是现在,他担心 AI 会造成严重危害。
辛顿是 AI 先锋。2012 年,辛顿博士和他在多伦多大学所带的两名研究生开发的技术,成为了 AI 系统的知识基础。如今,科技行业的巨头们认为,AI 系统是它们未来发展的关键。
为发展 AI 而后悔
然而就在周一,他正式加入了越来越多的 AI 批评人士的行列。他们认为,这些公司积极开发基于生成式 AI 的产品,ChatGPT 等热门聊天机器人等被快速研发,这是在奔向危险。
辛顿说,他已经辞去了谷歌的工作,以便自己可以自由地谈论 AI 的风险。他已经在谷歌工作了十多年,成为该领域最受尊敬的人物之一。辛顿表示,他现在对自己一生从事的工作感到有些后悔。
“我用平常的借口来安慰自己:就算我没做,别人也会做的。”上周,辛顿在多伦多家中的餐厅接受了长篇采访时称。那里距离他和学生取得 AI 突破的地方只有几步之遥。
辛顿从 AI 开拓者到末日预言者的转变,标志着科技行业在这个几十年来也许最重要的拐点上经历了一个非凡时刻。业界领袖认为,新的 AI 系统可能与 20 世纪 90 年代初推出的网络浏览器一样重要,并可能引发从药物研究到教育等领域的突破。
但是,令许多业内人士苦恼的是,他们担心自己正在向野外释放一些危险东西。生成式 AI 已经可以成为制造虚假信息的工具。很快,它可能会对就业构成威胁。科技行业最大的担忧者表示,在未来的某个时候,它可能会对人类构成威胁。
辛顿对此表示,“很难想象你能如何阻止坏人利用它做坏事”。
自从 OpenAI 在 3 月份发布了最新版 ChatGPT-4 模型后,包括马斯克在内的上千名科技领袖和高管签署联名信,呼吁暂停开发比 ChatGPT-4 更先进模型 6 个月时间,因为 AI“对社会和人类构成了深刻风险”。几天后,有 40 年历史的学术组织人工智能促进协会的 19 位现任和前任领导人发表了他们自己的公开信,警告 AI 的风险。该组织包括微软首席科学官埃里克・霍维茨 (Eric Horvitz)。微软已将 OpenAI 的技术应用于一系列产品,包括必应搜索引擎。
辛顿没有在这两封信上签名。他说,在辞职之前,他不想公开批评谷歌或其他公司。上个月,他通知公司他将辞职。周四,他与谷歌母公司 Alphabet CEO 桑达尔・皮查伊 (Sundar Pichai) 通了电话。他拒绝公开讨论与皮查伊谈话的细节。
谷歌首席科学家杰夫・迪恩 (Jeff Dean) 在一份声明中表示:“我们仍然致力于对 AI 采取负责任的态度。我们在不断学习了解新出现的风险的同时,也在大胆创新。”
AI 危险更快到来
辛顿认为,随着企业改进 AI 系统,它们会变得越来越危险。“看看五年前和现在的情况,”他在谈到 AI 技术时说,“接受差异并将其传播出去。太可怕了。”
他表示,直到去年,谷歌一直是这项技术的“适当管理者”,小心翼翼地不释放可能造成伤害的东西。但是现在,微软用聊天机器人增强了必应搜索引擎,挑战谷歌的核心业务,导致谷歌也在竞相部署同样的技术。辛顿说,科技巨头陷入了一场可能无法阻止的竞争。
他目前最担心的是,互联网将充斥着虚假照片、视频和文字,普通人将“无法再知道什么是真的”。他还担心 AI 技术最终会颠覆就业市场。如今,像 ChatGPT 这样的聊天机器人往往是对人类工作者的补充,但它们也可能取代律师助理、个人助理、翻译和其他处理机械化任务的人。“它省去了繁重的工作,但它带走的可能不止这些。”辛顿称。
未来,他担心未来版本的 AI 技术会对人类构成威胁,因为它们经常从分析的大量数据中学习意想不到的行为。他说,这成了一个问题,因为个人和公司不仅允许 AI 系统生成自己的计算机代码,还允许它们自己运行这些代码。他担心有一天真正的自主化武器 —— 那些杀人机器人 —— 会成为现实。
“一些人相信,这种东西实际上会变得比人更聪明,”他表示,“但大多数人认为这还很遥远。我也曾认为这还很遥远。我认为这需要 30 到 50 年甚至更长的时间。显然,我现在不再这么想了。”
辛顿说,当人们过去问他如何能研究有潜在危险的技术时,他会转述美国“原子弹之父”罗伯特・奥本海默 (Robert Oppenheimer) 的话:“当你看到某种从技术上感觉不错的东西时,你就会去做。”
最新评论