凤凰网科技讯 《AI哨所》北京时间5月2日消息,有“AI教父”之称的杰弗里辛顿(Geoffrey Hinton)周一宣布,他已经从谷歌公司离职。半个世纪以来,辛顿一直在培养ChatGPT等聊天机器人背后的核心技术。但是现在,他担心AI会造成严重危害。
凤凰网科技《AI哨所》了解到,辛顿是AI先锋。2012年,辛顿博士和他在多伦多大学所带的两名研究生开发的技术,成为了AI系统的知识基础。如今,科技行业的巨头们认为,AI系统是它们未来发展的关键。
为发展AI而后悔
(资料图片)
然而就在周一,他正式加入了越来越多的AI批评人士的行列。他们认为,这些公司积极开发基于生成式AI的产品,ChatGPT等热门聊天机器人等被快速研发,这是在奔向危险。
辛顿说,他已经辞去了谷歌的工作,以便自己可以自由地谈论AI的风险。他已经在谷歌工作了十多年,成为该领域最受尊敬的人物之一。辛顿表示,他现在对自己一生从事的工作感到有些后悔。
“我用平常的借口来安慰自己:就算我没做,别人也会做的。”上周,辛顿在多伦多家中的餐厅接受了长篇采访时称。那里距离他和学生取得AI突破的地方只有几步之遥。
辛顿从AI开拓者到末日预言者的转变,标志着科技行业在这个几十年来也许最重要的拐点上经历了一个非凡时刻。业界领袖认为,新的AI系统可能与20世纪90年代初推出的网络浏览器一样重要,并可能引发从药物研究到教育等领域的突破。
但是,令许多业内人士苦恼的是,他们担心自己正在向野外释放一些危险东西。生成式AI已经可以成为制造虚假信息的工具。很快,它可能会对就业构成威胁。科技行业最大的担忧者表示,在未来的某个时候,它可能会对人类构成威胁。
辛顿对此表示,“很难想象你能如何阻止坏人利用它做坏事”。
自从OpenAI在3月份发布了最新版ChatGPT-4模型后,包括马斯克在内的上千名科技领袖和高管签署联名信,呼吁暂停开发比ChatGPT-4更先进模型6个月时间,因为AI“对社会和人类构成了深刻风险”。几天后,有40年历史的学术组织人工智能促进协会的19位现任和前任领导人发表了他们自己的公开信,警告AI的风险。该组织包括微软首席科学官埃里克霍维茨(Eric Horvitz)。微软已将OpenAI的技术应用于一系列产品,包括必应搜索引擎。
辛顿没有在这两封信上签名。他说,在辞职之前,他不想公开批评谷歌或其他公司。上个月,他通知公司他将辞职。周四,他与谷歌母公司Alphabet CEO桑达尔皮查伊(Sundar Pichai)通了电话。他拒绝公开讨论与皮查伊谈话的细节。
谷歌首席科学家杰夫迪恩(Jeff Dean)在一份声明中表示:“我们仍然致力于对AI采取负责任的态度。我们在不断学习了解新出现的风险的同时,也在大胆创新。”
AI危险更快到来
辛顿认为,随着企业改进AI系统,它们会变得越来越危险。“看看五年前和现在的情况,”他在谈到AI技术时说,“接受差异并将其传播出去。太可怕了。”
他表示,直到去年,谷歌一直是这项技术的“适当管理者”,小心翼翼地不释放可能造成伤害的东西。但是现在,微软用聊天机器人增强了必应搜索引擎,挑战谷歌的核心业务,导致谷歌也在竞相部署同样的技术。辛顿说,科技巨头陷入了一场可能无法阻止的竞争。
他目前最担心的是,互联网将充斥着虚假照片、视频和文字,普通人将“无法再知道什么是真的”。他还担心AI技术最终会颠覆就业市场。如今,像ChatGPT这样的聊天机器人往往是对人类工作者的补充,但它们也可能取代律师助理、个人助理、翻译和其他处理机械化任务的人。“它省去了繁重的工作,但它带走的可能不止这些。”辛顿称。
未来,他担心未来版本的AI技术会对人类构成威胁,因为它们经常从分析的大量数据中学习意想不到的行为。他说,这成了一个问题,因为个人和公司不仅允许AI系统生成自己的计算机代码,还允许它们自己运行这些代码。他担心有一天真正的自主化武器——那些杀人机器人——会成为现实。
“一些人相信,这种东西实际上会变得比人更聪明,”他表示,“但大多数人认为这还很遥远。 我也曾认为这还很遥远。我认为这需要30到50年甚至更长的时间。显然,我现在不再这么想了。”
辛顿说,当人们过去问他如何能研究有潜在危险的技术时,他会转述美国“原子弹之父”罗伯特奥本海默(Robert Oppenheimer)的话:“当你看到某种从技术上感觉不错的东西时,你就会去做。”凤凰网科技《AI哨所》对此将持续关注。
(举报)
Copyright @ 2015-2022 中国IT产业网版权所有 备案号: 沪ICP备2022005074号-4 联系邮箱:58 55 97 3@qq.com