机械人自我意识觉醒还要等多久?_机械人_自我
【新智元导读】本文对专访了著名机器人专家Hod Lipson,谈论如何定义机器人的自我意识,为什么机器人的自我意识很主要,以及它可能带来什么。你认为AI会故意识吗?拥有自我意识的机器人离我们还有多远?欢迎来新智元和群揭橥不雅观点。
“我想在有生之年见到一个外星人,”哥伦比亚大学创意机器实验室的机器人专家霍德·利普森(Hod Lipson)说:“我想认识一些非人类的聪慧生物。”
但是,Lipson并不是坐等这些外星生物的到来,而是想亲自打造它们——以具有自我意识的机器的形式。
为了达到这个目的,Lipson公开地面对一个棘手的观点——意识——这在他的同事中常常被视为禁忌。他说:“在机器人和人工智能领域,我们曾经视意识为禁忌,我们不许可触及这个话题。”“但在我看来,意识可以说是一个悬而未决的大问题,与生命起源和宇宙起源一样。什么是感知,什么是创造力?什么是情绪?我们想知道人之所以为人的意义,我们也想知道如何人为地创造出这些东西。是时候直面这些问题了。”
根据Lipson的不雅观点,感知或自我意识的基本构建块之一是“自我仿照”(self-simulation):建立一个人的身体及其在物理空间中如何运动的内在表征,然后利用该模型来辅导行为。早在2006年,Lipson就开始研究人工自仿照(artificial self-simulation),他设计了一个海星形状的机器人,利用进化算法(以及一些预先加载的“物理学提示”)自学如何在桌面上向前翻转。但他表示,2012年当代人工智能技能的兴起(包括卷积神经网络和深度学习)“给全体研究领域带来了新的活力”。
Lipson团队开拓的“仿生物细胞群体机器人”
在2019年初,Lipson的实验室开拓了一个机器人手臂,它利用深度学习完备从零开始天生自己的内部自我模型——Lipson形容这个过程“就像一个咿呀学语的婴儿不雅观察自己的手”。机器人的自我模型可以让它准确地实行两项不同的任务——捡起小球并把它们放进杯子里,以及用暗号笔写字——而不须要对个中任何一项进行专门的演习。此外,当研究职员通过添加一个变形部件来仿照机器人身体受到的损伤时,机器人能检测到这种变革,并相应地更新其自我模型(self-model),从而能够规复其任务。
这与有深层思考的机器人相去甚远。但Lipson断言,这种差异只是程度上的一种差异。“当谈到自我意识时,人们认为机器人会溘然醒来,说,‘你好,我为什么在这里?’”Lipson说。“但自我意识并不是黑白分明的。它是从一些非常噜苏的事情开始的,比如,‘我的手要往哪里移动?’这是同一个问题,只是韶光跨度更短。”
Quanta与Lipson谈论了如何定义机器人的自我意识,为什么机器人的自我意识很主要,以及它可能带来什么。
自我意识便是自我仿照吗?你显然对意识实质这个大问题很感兴趣,但你为什么要通过研究机器人来研究这个问题?为什么你不当哲学家或神经科学家?
对我来说,机器人的好处在于它会迫使你把你的理解转化为算法和机器装置。你不能拐弯抹角,你不能说空话,不能说诸如“现实的画布”这类的东西,它们对不同的人来说有不同的含义,由于它们太模糊了,无法翻译给机器。机器人迫使你关注详细的东西。
我想做一个这样的东西。我不想只是说说而已。哲学家们,恕我直言,在这个问题上已经有一千年没有取得什么进展了。不是由于缺少兴趣,也不是由于缺少聪明的人——自上而下地研究意识这个问题太难了。神经科学家已经用一种更为定量的方法来研究这个问题。不过,我认为,他们采纳的仍旧是自上而下的办法,这阻碍了他们取得进展。
如果你想理解意识,为什么要从最繁芜的意识开始——为什么要从人类开始?这就像走上坡路,这是最困难的开始办法。让我们来看看可能更随意马虎理解的更大略的系统。这便是我们要做的事情:我们不雅观察了一些非常噜苏的东西,一个有四个自由度的机器人,并试图回答,“我们能让这个东西自我仿照吗?”
自我仿照和自我意识是一回事吗?一个能够自我仿照的系统在某种程度上是具有自我意识的。它能在多大程度上仿照自己——仿照的逼真程度,仿照的韶光范围——所有这些不同的成分都影响到它有多少自我意识。这是一个基本假设。
以是,你把“自我意识”这个术语简化为一个关于自我仿照的更为技能性的定义——在空间中为自己的身体构建一个虚拟模型的能力?
是的,我们有不同的定义,我们利用的定义是非常详细的。这个定义是数学的,你可以丈量它,你也可以量化它,可以打算偏差的程度。哲学家可能会说,“这不是我们看待自我意识的办法。”然后他们的谈论常日会变得非常模糊。你可以说我们的定义并不是真正的自我意识。但是我们有一些非常根本的东西,而且很随意马虎量化,我们有一个基准(benchmark)。基准是工程师为机器人供应的传统手工编码的自我模型。通过我们的机器人,我们想看看AI算法能否学习一个与传统手工编码模型相同或更好的自我模型。
单个机器人(左)只能伸展和紧缩,但它们可以作为团队一起移动并完成任务。这个机器人的设计旨在探索自我复制(右),并可以变形成多种形状。
为什么须要物理机器人?为什么不在一个非实体系统中研究自我意识呢?
我们在探求一个可以仿照自身的封闭系统——要做到这一点,它须要有输入和输出,但也必须有一个边界,一个你描述“自我”的地方。机器人是符合这些条件的一个非常自然的存在。它有动作,有觉得,并且有边界,以是可以有事情发生在它身上,有东西可以让它仿照。我是机器人专家,这是我的第一选择。
这个机器人是在完备空缺的石板上创建自己的模型吗?
只是一个原则问题,我们是从空空如也开始的,我们想看看我们能走多远。在之前的例子中(海星形状的机器人),我们缺少打算力。我们必须见告它,“你不知道你是什么,但让我见告你F = ma,以及其他我们知道的精确的物理规则,你直接拿走这些。”
人工智能如何对机器人的自我意识起浸染?人工智能是如何发挥浸染的呢?
出于某种缘故原由,我们很高兴让机器人(利用AI)理解外部天下,但当涉及到它们自己时,出于一些奇怪的缘故原由,我们坚持手工编码模型。以是我们所做的实际上是相称噜苏的:我们说,“让我们把人类建造的所有根本举动步伐都拿来帮助机器人理解天下,我们要让它关注自己内部。”用一句话来说,这便是我们所做的全部。
机器人进行了1000次随机移动来网络数据,为深度学习算法创建自我仿照。这便是你所描述的人类婴儿咿呀学语的过程吗?
正是这样。机器人四处挥舞手臂,不雅观察它的指尖在哪里。想象一下,你自己挥舞你的手臂,看着你的指尖。这便是你的输入和输出。这个机器人在那里移动了30多个小时,一旦我们网络到所有数据,我们就可以回家了。从那往后,这就纯粹是一个打算上的寻衅(学习自我模型)。
我们所做的是冲破机器人(通过添加一个变形的部分),然后再做一次。我们看到坏掉的机器人是如何从完全的模型开始并改动它的。第二次学习时,它不须要从头开始学习。有一个重新开始的期间,但比最初须要的要少得多——只需原来的10%。
但在它重新开始之前,它须要知道出了什么问题。这是一个非常强大的东西。它怎么知道?如果你有一个自我模型,出了问题,你立时就会知道,由于如果你睁开眼睛,你会创造你的手不在它该当在的地方了。你想要的点本来在4厘米内,但是它溘然变成了16厘米远。你会立即得到反馈。以是机器人立时就知道出了问题。然后须要一段韶光来弄清楚如何修补,但我认为,纵然仅是知道涌现问题了,也是非常主要的。
这些画是由一个机器人创作的,它被演习利用人工智能来画画。
机器人为什么该当拥有自我意识?这种自我模型是否类似于人类大脑的一部分,类似于身体的内部舆图?
我想便是这样。这便是为什么它如此粗糙,并且如此大略。事实上,我们的机器人只有一个四个自由度的手臂。如果它是一个拥有800个自由度的人形机器人,对付我们本日所拥有的人工智能而言,可能太过繁芜了。
如果这真的是一种自我意识的形式,那么机器人为什么该当拥有它?它有什么用?
它使机器人终极更具弹性。你可以手动建模一个机器人,就像我们本日所做的一样,但那是非常费力的,而且很慢。当现实天下中的机器人变形或破坏时,比如轮子掉下来或马达减速了,那么模型就会溘然出错。比如考虑一下无人驾驶汽车,你会创造我们已经可以把我们的生活请托给自动机器人了。这是很严明的事情。你会想让这些机器人能够检测到出了什么问题,并且能够可靠地做到这一点。
另一个缘故原由是灵巧性。假设机器人实行一项任务,当它做这个任务时,它会不断地更新它的自我模型。现在,如果它须要做一项新的任务——比如它须要把一个螺丝放到不同的地方,或者它须要喷涂而不是拧入螺丝——它可以利用相同的自我模型来学习和方案如何去做这项新任务。从外部看,它就像我们所说的“zero-shot learning”,这彷佛便是人类干事的办法。如果你看到一棵你从未爬过的树,你也可以毫无障碍地爬上这棵树。当机器人可以自我建模时,它可以像人类那样在内部学习:你看不到它已经在自己的内部仿照中演习了多少个小时。你所能看到的只是它完成了一项任务,然后它在那里呆了一下子,溘然间它可以不用考试测验就能实行一项新的任务了。
一个能够自我仿照自己的身体的机器人和一个能够拥有内部“思想”(听起来更像是“自我意识”的非正式含义)的机器人之间,有什么联系?
我们正在做的其他一些项目与自我建模有关,但仿照的不是身体,而是认知过程。我们正在朝着这两个方向迈出一小步。相信这终极会达到人类层面的认知水平,乃至更高,这完备是一种信念的飞跃。
以是你假设这两条路径——自我仿照身体,和自我仿照大脑——会交汇在一起?
完备精确。我认为这都是一回事。这便是我们的假设,让我们来看看我们将能够推进到多远。
♂️AI实践者同盟招募盟友了♀️入群方法:
AI实践者同盟社群
填写问卷调查
复制「暗号」
回答小助手
Done!
本文系作者个人观点,不代表本站立场,转载请注明出处!