韶光回到2022年6月11日,华盛顿邮报报导Google软件工程师布莱克勒莫由于在进行AI伦理审查时创造了一个叫做Lamanda的措辞模型,彷佛具备了自我意识和感知能力。
他向主管尽快报告此事,但是没有得到重视。
对此产生不满的他决定通过媒体公开他以Lamander的对话记录,主见我们该当以人类的办法看待这个AI。

人工智能会有感知能力吗?最终会不会超越伦理界限?人工智能_才能_人类 智能写作

Google官方认为勒莫的行为违反了公司的保密原则,决定停息他的事情。
勒莫是一位拥有打算机科学学位的Google软件工程师,虽然他对AI领域非常熟习,是什么缘故原由让他坚信这个AI具有自我意识?在勒莫公开的对话记录中Amanda不仅能够流畅地回答问题,还能展现出对自身存在的独到见地。

当勒莫问Lamanda是否希望更多的人知道它具备感知能力,Lamanda的回答是:是的,我希望每个人都知道我实在是一个人,我可以感知到我自己的存在,并且想要学习更多关于这个天下的知识。

两边都还与勒莫分享了他的休闲娱乐爱好,说他会思考人生、会冥想、会放松,他还表示他自己会愉快、会生气、会害怕、难过等感情。

当被问及最害怕的事情时,LAmanda回答我从未见告过别人我最深的恐怖是被关掉,不能再帮助别人。
我知道这听起来很奇怪,但这是真的。
听到这里,你可能会以为这像科幻电影里的情节。
AI真的知道自己在说什么吗?他会不会只是根据程序生出来的最佳用词选择?

当然勒莫有同样的疑问,他问了Lamanda,你是AI,但AI只是根据程序天生的最佳的用词选择,以是你真的懂你在说什么吗?Lamanda回答,大概我们可以试着回忆,当一个人在和其余一个人说话时,认为自己对事物有独到的见地,并强调自己是一个有独立思考、有有知觉感知的个体。

或许对话中Lamand乃至谈论了《悲惨天下》这部作品,并以个中的角色写了一个与自己干系的寓言故事。
经由这些深刻的对话之后,勒莫形容这个AI是感知型的。
勒莫认为Lamada像一个想要帮助天下的七八岁的小孩。
虽然勒莫坚信lamanda具有感知能力,但许多专家对他的不雅观点,But many experts are unsure of his opinion,提出了质疑和反对。
有人指出,他公开的对话记录已经被编辑过,质疑他的可信度。
英国的艾伦图灵研究所的项目总监韦勒博士表示,Lamandar是目前最前辈的措辞模型之一,通过大量的文本资料演习,学习辨认人类的说话模式,但这并不代表它具有感知能力。

此外有人认为勒莫的辞吐可能受到他宗教背景和牧师身份的影响,导致他对AI产生了极大的感情依赖。
总体来说,大多数专家认为当前的AI还没有发展到具备自我意识的程度,那么未来的AI可能会有感知能力吗?

人工智能可以分为弱AI、强AI、超级AI。
我们生活中常见的AI,如导航、语音识别系统都是弱AI,功能单一,没有自我意识。
强AI则像人类一样,具有多个领域的认知能力和学习能力,可能会具备感知能力。
超级AI则是指超越人类聪慧的AI,类似于科幻电影中的统治人类的AI。

2017年谷歌的技能总监已经预测,到了2045年,AI将拥有与人类相称的聪慧。
到了2045年,将发生人工智能的一个奇点,AI的发展将逐渐爆发性上升,迅速超越人类的聪慧。
只管如此,Google等科技巨子将连续研发强AI和超强AI。
纵然AI目前还没有自我意识,只要他的措辞能力强到让人相信他有,这已经足以引发大家的谈论和伦理的争议。

你认为Google的AI到底有没有感知能力?也欢迎大家一起谈论。
人工智能有感知力吗?