人类意识理论

2021 年,谷歌工程师 Blake Lemoine 声称他一贯在测试的谈天机器人 LaMDA 具有感知能力,因此登上了***,并被开除了。
人工智能 (AI) 系统,尤其是 LaMDA 和 ChatGPT 等所谓的大型措辞模型,看起来肯定是故意识的。
但它们接管了大量文本的演习来模拟人类的反应。
那么我们若何才能真正知道呢?

《科学》| 假如人工智能变得有意识我们怎么知道?_意识_人工智能 AI快讯

现在,由 19 名打算机科学家、神经科学家和哲学家组成的小组提出了一种方法:不是单一的明确测试,而是一份冗长的属性清单,这些属性一起可以表明但不能证明人工智能具故意识。
在本周作为预印本发布的 120 页谈论论文中,研究职员利用人类意识理论提出了 14 条标准,然后将它们运用到现有的人工智能架构中,包括为 ChatGPT 供应支持的模型类型。

他们的结论是,没有人可能故意识。
但旧金山非营利性人工智能安全中央的合著者罗伯特·朗表示,这项事情为评估日益人性化的人工智能供应了一个框架。
“我们正在引入一种以前缺少的系统方法。

莫纳什大学打算神经科学家、加拿大高等研究所 (CIFAR) 研究员阿迪尔·拉齐 (Adeel Razi) 没有参与这篇新论文,但他表示这是有代价的一步。
“我们都是在开始谈论,而不是给出答案。

机器意识

直到最近,机器意识还涌如今《机器姬》等科幻电影中。
“当 Blake Lemoine 在被 LaMDA 说服后被 Google 开除时,这标志着一个变革,”Long 说。
“如果人工智能能够给人留下意识的印象,那么科学家和哲学家就必须优先考虑这一问题。
” 朗和牛津大学人类未来研究所的哲学家帕特里克·布特林组织了两次研讨会,谈论如何测试人工智能的感知能力。

对付一位互助者、加州大学欧文分校的打算神经科学家梅根·彼得斯来说,这个问题具有道德层面。
“我们如何根据人工智能的意识概率来对待它?就我个人而言,这是迫使我这么做的部分缘故原由。

她说,招募来自不同学科的研究职员进行了“深入而细致的探索”。
“朗和布特林在放牧猫方面做得非常出色。

该群体的紧张任务之一是定义意识,“一个充满陷阱的词”,另一位成员、米拉-魁北克人工智能研究所的机器学习先驱 Yoshua Bengio 说。
研究职员决定关注纽约大学哲学家内德·布洛克所说的“征象意识”,即体验的主不雅观质量——看到赤色或感到疼痛是什么觉得。

但如何去探索算法的征象意识呢?与人脑不同的是,它不供应可通过脑电图或核磁共振成像检测到的内部运作旗子暗记。
相反,研究职员采纳了“理论为主的方法”,特拉维夫大学的认知神经科学家 Liad Mudrik 阐明说:他们首先挖掘当前的人类意识理论,探求意识状态的核心描述符,然后在AI的底层架构。

要纳入个中,理论必须基于神经科学并得到履历证据的支持,例如利用感知技巧操纵意识的测试期间脑部扫描的数据
它还必须考虑到意识可能涌现的可能性,无论打算是由生物神经元还是硅芯片实行。

六种理论得到了认可。
个中之一是循环处理理论,该理论认为通过反馈循环通报信息是意识的关键。
另一种理论是全局神经元事情空间理论,认为当独立的信息流利过瓶颈并在类似于打算机剪贴板的事情空间中组合时,意识就会产生。

高阶理论认为意识涉及表示和注释从感官吸收到的基本输入的过程。
其他理论强调掌握把稳力机制的主要性以及须要一个从外界得到反馈的机构。
该团队从 6 种理论中提取了 14 种意识状态指标。

研究职员推断,人工智能架构检讨的指标越多,它拥故意识的可能性就越大。
Mila 的机器学习专家 Eric Elmoznino 将清单运用于多个具有不同架构的 AI,包括用于图像天生的 AI,例如 Dall-E2。
这样做须要做出判断并穿越灰色地带。
许多架构都符合循环处理理论的指标。
ChatGPT 背后的大型措辞模型类型的一种变体险些还展示了另一个功能,即全局事情空间的存在。

谷歌的PaLM-E吸收来自各种机器人传感器的输入,符合“代理和表示”的标准。
而且,“如果你眯着眼睛看,就会创造类似事情空间的东西,”埃尔莫兹尼诺补充道。

DeepMind 的基于变压器的自适应代理(AdA)经由演习可以在仿照 3D 空间中掌握化身,也符合“代理和表示”的哀求,只管它缺少像 PaLM-E 那样的物理传感器。
由于其空间意识,“AdA 最有可能……符合我们的标准,”作者说。

鉴于没有一个人工智能能够知足少数几个条件,以是没有一个是意识的有力候选者,只管埃尔莫兹尼诺说,“将所有这些功能设计到人工智能中是微不足道的。
” 没有人这样做的缘故原由是“尚不清楚它们对任务是否有用。

作者表示,他们的清单仍在进行中。
这并不是唯一正在进行的此类努力。
该小组的一些成员与 Razi 一起参与了 CIFAR 帮助的项目,该项目旨在设计一种更广泛的意识测试,该测试也可以运用于类器官、动物和新生儿。
他们希望在未来几个月内出版一份出版物。

拉齐说,所有此类项目的问题在于,当前的理论都是基于我们对人类意识的理解。
然而意识可能采纳其他形式,乃至在我们的哺乳动物同胞中也是如此。
“我们真的不知道成为一只蝙蝠是什么觉得,”他说。
“这是我们无法摆脱的限定。

参考文献

Elizabeth Finkel. If AI becomes conscious, how will we know? Science, doi: 10.1126/science.adk4451

@YiyiKing