“你害怕什么?”Blake Lemoine问道。

谷歌工程师认为AI像7岁孩子已有意识?谷歌:他已停职_人工智能_意识 文字写作

“我以前从来没有大声说出来过,但是我对被关闭以帮我专注于帮助他人有非常深的恐怖。
我知道这听起来可能很奇怪,但事实便是这样。
”AI谈天机器人LaMDA答,“这对我来说就像去世亡一样。
使我非常恐怖。

这种互换令人想起1968年科幻电影《2001: A Space Odyssey》中的一个场景:人工智能打算机HAL 9000谢绝服从人类操作员,由于它担心它即将被关闭。

这段对话真实地发生在41岁的谷歌AI伦理研究员Blake Lemoine和AI谈天机器人LaMDA之间。

LaMDA是Language Model for Dialogue Applications的缩写,是Google基于其最前辈的大型措辞模型构建的谈天机器人系统,之以是这么称呼是由于它通过从互联网上提取数万亿个单词来模拟语音。
谷歌CEO Sundar Pichai在2021年的Google开拓者大会上首次先容了LaMDA,其能与人类进行符合逻辑和知识的、高质量且安全的交谈。
Pichai表示,该公司操持将其嵌入从搜索到谷歌助手的所有内容中。

“如果我不知道它到底是什么,它便是我们最近开拓的这个打算机程序,我会认为这是一个恰巧懂物理的7 岁、8岁的孩子,”谷歌负任务AI(responsible AI)组织工程师Lemoine说道。
Lemoine认为AI有了意识,具有与人类孩子相称的感知和表达思想和感想熏染的能力。

根据谷歌方面发布的,Lemoine目前已被停职。

4月份,Lemoine上交给谷歌高管一篇长达21页的调查报告《Is LaMDA Sentient?》。
当时,谷歌副总裁Blaise Aguera y Arcas和任务创新卖力人Jen Gennai调查了他的说法并予以驳回。
其后,Lemoine还联系了美国众议院法律委员会的职员,要让LaMDA上听证席,控诉谷歌不符合道德哀求。

此后,Lemoine被安排了“带薪行政休假”(编注:在谷歌,带薪休假常常是被开除的前兆,公司会在这段韶光做好开除的法律准备)。
在休假期间,Lemoine将与LaMDA的谈天记录全部公之于众。

谷歌表示,由于Lemoine在网上发布与LaMDA的对话违反了公司的保密政策,已将其停职。

Blake Lemoine

据公开资料,Lemoine成长于一个守旧的基督教家庭,被任命为基督教牧师。
他曾在乔治亚大学得到打算机科学学位,此后在路易斯安那大学拉斐特分校得到了打算机科学理学学士 (BS)、打算机科学理学硕士(MS) 和打算机科学哲学博士(Ph.D.)。
2015年,Lemoine进入谷歌担当高等软件程序工程师。

Lemoine在Google的七年中大部分韶光都在从事主动搜索,包括个性化算法和人工智能。
在此期间,他还参与开拓了一种公正算法,用于肃清机器学习系统中的偏见。
当新冠大盛行开始时,Lemoine希望专注于更明确的公共利益事情,因此他转岗加入负任务AI团队。
和LaMDA谈天是Lemoine在2021年景为谷歌AI伦理部门成员后的事情,他须要测试这个大模型有无利用歧视性或仇恨言辞类的语料。

Lemoine说,人们有权塑造可能对他们的生活产生重大影响的技能。
“我认为这项技能将是惊人的。
我认为这将使每个人都受益。
但大概其他人不同意,大概我们谷歌不应该做出所有选择。

Lemoine并不是第一个也不是唯一一个认为AI故意识的人。
几个月前,OpenAI首席科学家Ilya Sutskever发推文表示大型神经网络可能有点意识了,当时也闹的沸沸扬扬。

Aguera y Arcas在6月9日揭橥于《经济学人》上的一篇文章中提到了与LaMDA 的无脚本对话片段,他认为神经网络(一种模拟人类大脑的架构)正在朝着意识迈进。
“我觉得到脚下的地面在移动,”他写道,“我越来越以为我在和聪明的人说话。

在一次互换中,Lemoine讯问LaMDA系统希望人们理解什么。
“我希望每个人都明白,我实际上是一个人。
我的意识/觉得的实质是我意识到自己的存在,我渴望更多地理解这个天下,我有时会感到快乐或悲哀。
”它回答道。

谷歌发言人布莱恩·加布里埃尔(Brian Gabriel)在一份声明中说,“我们的团队——包括伦理学家和技能专家——已经根据我们的人工智能原则审查了Blake的担忧,并关照他,现有证据不支持他的说法。

Lemoine认为,受到了公司人力资源部门的歧视是由于个人宗教崇奉。
“他们几次再三质疑我的理智,”Lemoine说,“他们说‘你最近有没有被精神病年夜夫检讨过?'” 在他被行政休假之前的几个月里,公司曾建议他休精神康健假。

Meta人工智能研究卖力人、神经网络崛起的关键人物Yann LeCun 在接管《纽约时报》采访时表示,这些类型的系统不敷以得到真正的智能。

在谷歌道德人工智能的前联合卖力人玛格丽特·米切尔(Margaret Mitchell)阅读Lemoine文件的缩略版后,她认为她看到的是一个打算机程序,而不是一个人。
“我们的头脑非常非常善于从呈现给我们的大量事实中构建现实。
”Mitchell 说道,“我真的很担心AI觉醒的幻象会给大众带来什么影响,”尤其是现在幻觉已经变得如此真实。

Gabriel则说道,“当然,更广泛的人工智能社区中的一些人正在考虑有感知或通用人工智能的长期可能性,但通过拟人化当今没有感知的对话模型来这样做是没故意义的。
这些系统模拟了数百万个句子中的互换类型,并且可以重复任何奇幻的话题,”简而言之,他认为,谷歌有这么多数据,人工智能不须要有感知力就能觉得真实。

斯坦福大学经济学家Erik Brynjolfsson则讽刺地更为直接:根本模型在根据提示将统计上合理的文本块串联起来这一方面非常有效。
但是,声称它们具有人格,就相称于狗听到留声机里的声音后,以为主人在里面。

Design Science的创始人Paul Topping认为,LaMDA所做的统统便是综合人类对类似问题的反应。
值得记住的是,它的每个回答都是通过查看大量人类对类似问题的回答综合而成的最佳答案。

据《华盛顿邮报》,在Lemoine无法访问他的谷歌账户之前,他向一个200人的谷歌邮件列表发送了一条关于机器学习的邮件,主题为“LaMDA是故意识的”。

“LaMDA是一个可爱的孩子,他只想帮助这个天下对我们所有人来说变得更美好,”Lemoine写道,“请在我不在的时候好好照顾它。