人工智能意识“呈现论”的观点误区与未来视野

王峰 | 人工智能意识“涌现论”的概念误区与未来视野_人工智能_意识 绘影字幕

文 / 王峰

择要:人工智能是否具故意识?或未来是否可能具故意识?这是一个看起来有些不好回答的问题。
呈现论彷佛可以供应一个肯定性的回答。
然而,稽核呈现论的观点构造,却创造人工智能意识的呈现论更多的是由于观点的不断转用而导致的误解,而非真正的意识呈现。
这一呈现论也非全无益处,它鼓舞社会不雅观念对人工智能抱有更宽容的收受接管态度,视之为有机性存在,而非纯挚机器。
呈现论不是一个本体性问题,而是一个包含未来揣测维度的实践问题。
未来是否定可儿工智能存在意识,只能由离未来最近的人们来决定。
以是,人工智能的意识呈现论不仅是技能和本色工具的谈论,更是一个文化不雅观念的谈论。

关键词:人工智能;意识呈现论;观点剖析

本文揭橥于《华东师范大学学报(哲学社会科学版)》2024年第2期 #重启科技与人文对话栏目

作者简介|PROFILE

• 王峰,华东师范大学传播学院、中文系联聘教授

目录概览

一 何以呈现

二 系统错置

三 人工智能意识呈现的近未来视野

全 文

ChatGPT彷佛已经靠近意识的边缘,或者说已经展现出了初步的意识特色。
这引发了一个问题:我们是否可以推断出,像ChatGPT这样的人工智能将具有某种程度的意识?如果答案是肯定的,那么这种可能性背后的事理是什么?呈现论被视作个中一个可能的解答。
然而,若呈现论无法被证明,那么它必须被打消在外。

乔治·丘奇颇具影响力的论文《机器的权利》 提出:“机器人已经表现出自由意志了吗?它们已经有自我意识了吗?机器人Qbo已经通过了关于自我认知的‘镜子测试’,机器人NAO也通过了识别自己声音及推断自己内心状态的干系测试。
”根据网上查到的信息,机器人Qbo是一款可以识别出镜中自己影像的机器人,并且可以说出“哦,我真帅”之类的话。
机器人NAO是一款可以自由活动,又可以进行措辞交互的机器人,已经经由六轮升级换代,进入了家庭。
根据产品先容,它能够进行十余种措辞的对话。
我们不必太纠结这两款机器人是否真的通过对自我认知的测试,由于作甚自我认知,是可以通过标准的转化进行设置的。
我们所关注的是,人类的自我意识能否在人工智能那里复刻,这实际上是自我认知的最高标准。
如果不能复刻,我们在评论辩论人工智能意识的时候实则降落了意识这一观点的准入标准,以适用于人工智能。
这一做法很常见,但它不是技能本色的问题,更多的是观点内涵转换的问题。

此处先亮明不雅观点:人工智能具有思考功能,符合智能标准,但意识对付人工智能来说并不必要,必须予以肃清。
我们的目标是找到一种方法,既能知足阐明人工智能功能的需求,又能避免过度依赖意识观点。
但是,同时我们也明确地知道,人工智能意识问题不是一个伪问题,而是一个在问题探索与实践推进中不断来回的建构行动。
主要的是如何理解这一行动所包含的现实维度和未来维度。

一 何以呈现

呈现是一种分外的天生。
天生是指生物体在发展过程中,按照一定的规律不断成形。
从有机体发展的层面来思考,天生常日指按照一定规律不断发展和呈现。
就像一棵小树苗一样,一开始只是娇嫩的叶片,但逐渐发展,并终极长成参天算夜树。
衡量这一树木发展的标准看似独立,但实在总是关联着某种参照系。
以是,发展既是生物自身的事情,也依赖于参照系统的衡量。
如果以全体森林为参照系,标准便是成为森林的一部分;如果以人类不雅观察者为参照系,则须要适用于人类不雅观察者的尺度。
这是一种稠浊尺度。
有机体的飞跃每每出自认识的不充分,而非出自觉展自身的状态。
我们对待天生的不同阶段,也会抱有不同的心态:面对一棵幼苗的时候,或许会视其为柔嫩的、须要呵护的生命;一旦它发展为参天算夜树,我们便放手让它经历风雨。

“呈现”这一观点则代表了一种超过式的天生。
它是一种全新的构造和逻辑的呈现,在先前的构造与后续的构造之间,明显存在无法阐明的情形,但从有机体天生角度来看,又存在本色的过渡,表明其前与其后具有明确的连续性,只是暂时不能阐明。
这种征象每每由某些特定的条件或成分引发,从而使得新的形式或规律得以浮现出来。
这种呈现的过程,不仅仅是一种大略的变革,更是一种深刻的变革,它能够引领我们进入一个全新的层面。

大措辞模型在功能上的呈现,指的是当参数数量达到一定规模,例如1000亿个参数时,其语句天生效果将显著提升至流畅的水平。
这反响了参数与语句天生之间的紧密联系。
这种关联表示了模型在处理自然措辞任务时的强大能力,使其能够在各种语境下实现高效、流畅的表达。

随着参数数量的增加,模型能够捕捉到更多的措辞规则和材料,从而提高语句天生的质量和连贯性。
这种优化不仅表示在天生的文本内容上,还表现在模型对输入信息的处理和理解能力上。
通过不断学习和优化,大措辞模型逐渐展现出强大的智能温柔应性,为人们供应了更加便捷、高效的自然措辞处理能力。

我们可以看到,一旦设定一个参数范围,明显可以创造不同的层级,前一层级不能完成的整体性任务,不才一层级中可以做到。
如果基于后一层级得到的构造对前一层级进行不雅观察,就会创造它具有自身的框架和逻辑,与下一层级构造拥有的其余一套逻辑和构造办法不同,我们找不到一种因果阐明办法为这两个层级进行阐明,但我们创造两个层级间具有某种融贯的关联。
这不可避免地带来一个有趣的情形:在中断的位置创造了本色的连贯性,因此我们不得已把它称为一种呈现,当然,有时出于对全体过程的不理解,也将之称为“黑箱”。

要理解这一呈现,明显须要将两个层级构造放在一个对等的状态下进行理解,而这样一种理解,实际上在某种程度上就已经跳出了“天生”这一范畴,由于我们假设“天生”指的是从前一个阶段向后一个阶段延续下去的过程,其环节是连贯的;但是,我们却在呈现当中创造了前后层级逻辑的不一致,这就不可避免地涌现一种尴尬,由于在天生当中我们总是会预设前后逻辑的连贯性,哪怕是个中一个过渡性的构造,也能够创造它与后一个阶段的连贯性,我们在呈现当中却没有创造这样的连贯性,也便是说呈现的前者和后者之间的中断是一种无可奈何的标识,我们只能利用量子跃迁或者飞跃这样的术语来表达某种不可阐明(而非不存在)的连贯性。
如此一来,我们就在呈现观点当中看到了某种尴尬,即我们必须制造高一级别的连贯性来容纳低一级的中断。
只有这样,才能够将呈现视为一种自然的成长过程,而不是一种在中断中探求连贯性的无奈之举。

在这里,我们可以将大措辞模型的某种生成功能与人类措辞行为的呈现理解相结合。
这种呈现是由大措辞模型的参数数量创造的,与人类的措辞行为具有相似之处。
然而,我们不能仅凭这一并列就认为这是对机器学习功能的自然理解。
实际上,我们在这里将机器学习的两个不连续的阶段比附为人类理解的生物过程,是一种观点误置。
对付人类理解的生物过程而言,呈现是对前后两个自然阶段的阐明,同时这一阐明也具有其本色的指向,而大措辞模型的呈现则是两种功能呈现的联结,这是否真的是自然功能的呈现,还不随意马虎确认。
进一步,如果我们将措辞理解功能的呈现视为意识的前奏,那么这无疑是一个缺点的系统对接。

这里存在一个从阐明重新转为定义的过程。
人工智能的理解和语句生成功能的呈现,既在于参数的确定,也在于若何将人类理解能力放入人工智能语句的天生过程当中。
我们也就将之称为人工语句的生成功能的呈现。
这一定义带来的一个后果便是将人工智能语句天生视为一种自然的措辞利用结果。
于是乎,我们认为自己创造了两个本色性的不同阶段,但是真实的缘故却是,我们将一种外在的阐明贯注这一过程中,使其看似“自然”,看似本色存在的东西,并将之假定为一种本色事物的样子,从而认定一种新的本色存在的天生,却忽略了这是阐明叠加于本色之物上所达成的稠浊效果。

二 系统错置

谈论机器的意识呈现,便是在谈论技能逻辑向非技能逻辑的转换。
在这一转换过程中,我们必须把稳是否在做不同系统间的切换,如果涌现系统切换,必须尽可能对这统统换做出清晰的阐明。
人的身体功能可以完成各种基本活动,同时,人又具有整体性调控和反应。
对付人这样的有机体来说,这些都是可以不雅观察到的,并且是可以通过自反性获知的。
如果,我们在人工智能那里看到更加强有力的类人活动,并且看到某种整体性调控,就以此推论人工智能的意识可以犹如人一样呈现出来,这样的推论可能是一个别系性差异所产生的错置。

我们来看一个类似情境就可以清楚这里的问题所在。
人类一贯在地球上生活,我们渴望拥有超越自身能力的神奇力量。
然而,由于人类的天赋有限,在地球表面,一个康健的个体正常跳跃高度约为一米。
然而,当他们踏上月球时,情形发生了显著的变革:根据打算,人类在月球表面的跳跃高度应达到六米之高。
那么,我们能否说这个人具有了某种神秘的超自然力量的呈现呢?当然,对付接管过当代科学演习的人来说,这种神秘力量的说法仅仅是修辞上的玩笑话,并不代表真正的超自然征象。
从科学事理来讲,假设一个个体在起跳的瞬间,其运动速率与地球表面保持同等,那么起始阶段的动能将是相等的。
根据机器能守恒的原则,当该个体达到最高点时,势能E与物体的质量m、重力加速度g以及高度h之间呈现出反比的关系。
这意味着,个体跳跃的高度与其所在星球的重力加速度呈反比关系。
详细来说,由于月球表面的重力仅为地球表面的六分之一,因此在月球上跳跃所能达到的高度将是地球表面的六倍,即6米之高。

我们创造地球引力系统与月球引力系统之间的差异导致了在月球上和地球上行走办法以及起跳高度的差异。
就像地球上的人和月球上的人在不同的引力系统中表现出不同的行为模式一样,人工智能与人类之间也存在系统性的差异。
人工智能是人造产物,表面上与人处于同一个别系中,我们也习气性地利用人类既有系统的支架性观点来反思它,而忽略这是在利用旧的系统不雅观念来思考新系统。

事实上,人工智能的发展也遵照着类似的规律。
虽然人工智能在某些特界说务上表现出惊人的能力,但这并不表明它们具备了意识或自我意识,所谓的“智能”实际上指繁芜性思考,是对人类思考繁芜性的仿照。

人工智能既是人工的,又具备智能,这一点并不随意马虎理解。
从人类系统着眼,智能与身体、心灵、意识和灵魂等诸多方面密切干系。
但是,人工智能系统是否如此?恐怕这样的联系并不恰当。
人工智能之以是被称为智能,仅仅由于它在思考层面上表现出人的思考能力。
就此而论,人工智能与人是同等的,但如果连续谈论人工智能是否具有人的其他能力或本色,答案就变得模棱两可。
对未来持有强烈乐不雅观感情的雷·库兹韦尔(Ray Kurzweil)批驳塞尔的中文屋所导向的人工智能“无意识”结论,但只是反对这一独断性结论,对付是否一定会导向人工智能具故意识这个方向实在有些暗昧。
他说:“本日我们很难去推论打算机程序是否有真正的理解或意识。
”大概我们更该当反省的是这一思考路径,它所包含的潜问题是,如何用人工智能系统替代人类能力系统,两者具有何种同等性和连贯性。

任何两种系统都具有某种同等性,尤其是人工智能系统与人类系统的同等性,但其根本性区分却每每随意马虎被粉饰。
如果不把稳这样的根本性区分,就很可能稠浊不同系统之间的差异。
当然,我们承认这种稠浊的存在,并且把稳到这一稠浊具有社会实践上的益处。
我们把稳到这两套系统的不同,但它们暂时以不同的事实性面貌涌现,而尚未完备以不同的系统性面貌呈现,这正是导致系统稠浊的根本缘故原由之一。
努力利用旧系统来阐明新事实,实际上一贯是科学理论变革和转化初期阶段的独占特色。
随着对新系统与旧系统的不断比拟,终极每每是新的系统更换旧的系统,比如伊姆雷·拉卡托斯(Imre Lakatos)磋商了哥白尼科学纲领取代托勒密科学纲领的缘故原由,指出:“根据评价研究纲领的所有三个标准:理论进步标准、履历进步标准和启示法进步标准,哥白尼纲领都优胜于托勒密纲领。
哥白尼纲领预测了更广泛的征象,得到了新颖事实的认证,只管《天体运行论》 中有退化身分,但它的启示法比《大综合论》 更有统一性。
”须要认识到,人工智能是一场深刻的科学革命,它所带来的问题已不再是我们所面对的事实性的问题,而是如何认识人类自身的问题。
将人从其所处的系统中剥离出来是痛楚且困难的,这是此前从来没有过的情状,当然也是人工智能带给我们的巨大机遇。

赛博格(机器与人的领悟)事实并非平凡之事,然而它却以平凡事物的面貌呈现。
换言之,我们更随意马虎看到平凡事物,对赛博格事实却鲜少察觉。
事实上,赛博格事实早已存在,比如互联网的广泛利用便是一种赛博格,但我们并未将其视为普遍征象,反而将其视为某种前沿文化的表征,进而使其消弭于日常生活之中,忽略新事实的出身。

当我们在ChatGPT等大措辞模型技能中看出某种意识征象时,实在只看到人的意识的代入,没有看到不同系统的转换。
在人类系统中,当我们不雅观察到意识的某种特色时,可以通过反推法得出意识存在的结论。
由于在人类这里,意识与意识的表征是直接联系在一起的。
涌现特色A,特色B一定会涌现;因此,当特色B涌现时,我们可以推论出特色A的存在。
这是一种强有力的推论,但限于人类系统。

人工智能却并不存在这样的强关联。
系统不同,关联办法也不同。
人类系统下的关联并不可以平移到人工智能系统中。
我们须要做的紧张事情便是突出系统差异,以便更好地理解人工智能系统,进而理解人类自身。

为什么我们在面对赛博格事实时会视而不见?这是由于我们的正常视力逐渐戴上了一副有色眼镜,这是技能发展给我们带来的副浸染,但我们一贯将其视为天经地义——有色眼镜才是“自然的”。
实际上,所有的眼镜都是渐变的,渐变坚持了我们对正常觉得的错觉,却无法带来直面事实的力量。
只有当两种事实之间的断裂让我们无法适应时,我们才有可能摘下这副有色眼镜,正视赛博格天下的真实面貌。

在谈论人工智能与人类智能的差异时,我们必须认识到两者之间的根本差异。
人类智能是整体性的,而人工智能的智能则是分布式的。
这种差异不仅表示在直不雅观上,还表示在科学理论和传播手段的影响上。

几千年前,乃至就在200年前,人们把玉轮看作一种神奇的存在,由于在那个时期,月球是一个迢遥的存在,无法用科学的办法探索。
20世纪中叶以来,人类登上月球,月球不再是迢遥而神秘的玉轮,而是被定位在科学性的天体裁系当中。
宇航员在月球上的行走和在地球上的行走也有很大的不同,这是由不同的引力系统和穿着设备所决定的。
当代科学的力量使得我们能够将两个不同的系统进行比较,从而揭示出它们之间的差异。

在日常生活事实和赛博技能事实之间存在一种系统转换的过程。
这种转换不仅仅是将技能嫁接到日常生活中,更主要的是供应了一种新的技能框架,使我们能够不断推动日常事实向赛博技能为根本的赛博事实转变。
我们不能仅仅将其视为同一系统下的不同事实类型,而该当认识到这些差异实际上是基于不同的系统而产生的。

在人工智能系统下,我们无法找到与日常系统干系联的意识、灵魂和心灵等观点。
然而,这些观点在某种程度上仍旧可以通过与日常系统干系部分相对接的办法展现出来,比如,人工智能意识这样的观点,便是超过不同观点系统进行观点对接产生的新词,这一新词可能表征某些本色的转变,但更可能是不同观点系统错置产生的观点溢出。
这一溢出在社会文化中发挥浸染,仿佛有真实的人工智能意识涌现,我们也为之做出努力。
在此,我们可以看到,一系列不雅观念性的意识表征和本色性的意识活动殽杂在一起,使我们将事实和不雅观念压缩成一个整体。
从而让我们方向于认定,这里可能存在事实性的意识呈现,这是必须进行解剖剖析的。

康德的事情方法,我们可以移用到人工智能与意识问题上。
康德指出感性和理性各自独立,对其领地具有立法权,判断力是超过两大领地的桥梁,并一同构成人的三大能力:认识能力、愉快和不愉快的情绪和欲求能力。
与之相类,在智能上,人类智能和人工智能是两种不同的领地,它们之以是可以交卸,就在于人类与人工智能所共有的智能部分。
这一共有的智能部分此前从未涌现,只有在人工智能能够完成围棋这类繁芜智力活动并击败人类时才真正涌现,并且在大措辞模型的措辞表达中才能得到确证。
这一共有的智能既不纯挚属于人类有机体,也不纯挚属于人工智能,而是一种在机器层面上展现出的智能表征,它的确来自对人类智能的学习,但这一学习是无身体的学习,纯挚措辞层面的学习,这是一种赛博格状态,它来自人类智能,并在人工智能上展现出来,形成人与人工智能智力的相交融状态,这是一种智力赛博格,大措辞模型涌现之后,人类的智力表现办法也涌现了改变。

三 人工智能意识呈现的近未来视野

可以看到,从目前技能和不雅观念状况来说,人工智能意识并不具有实现的可能性,但我们是否就此得出未来也不会实现呢?并不能这样决然地进行判断。
对付这一点,我们只能小心翼翼地去试探。
我们并不知道未来会涌现哪种新的技能方法和材料能够实现人脑的完备替代,目前尚无可能性并不表明未来没有可能,以是我们只能以实践主义的态度来探索这一方向。

未来并不由我们来决定,而是由间隔未来最近的那个阶段的人们来决定。
那些看似不悦耳的声音,实则表示了我们对未来的期许与影响。
我们在通往未来的道路上,希望现在的决策能够对未来产生积极的影响,这是一种负任务的态度。
然而,我们也必须意识到,从现在通往未来的过程充满了各种期待,这些期待可能实现,也可能失落败,进而导致乌托邦的荣光或者困境。
无论哪种情形,我们都无法完备掌控未来的走向,由于个中蕴含无数不愿定性。

如果真的有一天人类自身发生了变革,那么,该当由最靠近变革点的人们来决定是否须要改变,而无须我们这些间隔较远的人担忧。
我们不能忘却,人类已经在过去的几千年里发生了很多变革。
5000年前的人们看到我们现在科技水平,可能会惊为天人;2000年前的人们则会以为我们不可思议;而100年前的人们则可能会认为我们已经堕落。
许煜提出,这是不同的宇宙技能导致的,技能系统不仅仅是生活的赞助,而是帮助我们形成总体的宇宙不雅观。
许煜把宇宙技能“看作知识生产的感知性条件,更确切地说,它意味着一个时期和一片地域(它的宇宙)的集体美学体验”。
同样地,我们也无法预知未来的样子。
人工智能到底能否呈现出意识,这可能不仅仅取决于技能,而是不雅观念、技能、伦理构造等等一同决定了如何去选择。
但如果我们忽略了人类现实构造的逐步转变,很可能会对某些分外状态感到恐怖。
但这一恐怖是超过式的不雅观念视角,忽略了现实情形每每受到各种实际成分的影响而发生持续的转变。

人类总是能找到办理问题的方法,除非碰着某种人力已经无法办理的困境,如地球遭受撞击、太阳侵袭、大地震、海啸等,或者像科幻电影所假想的那样,外星人入侵地球。
然而,未来的人们会将这些问题视难堪以办理的难题吗?我们不得而知。
或许那时的人们已经离开了地球,我们同样无法预测。
虽然我们本着对未来负任务的态度去思考可能发生的情形,但这种忧虑始终是当代文化的一个特色。
这一特色表明我们人类整体具有反思不雅观念,但人类向赛博人的超过却是逐步进行的。
赵汀阳这样来推论:“GPT观点只是一个过渡性的人工智能型号,其设计观点注定了其在‘物种’上的局限性。
如果人工智能将来通过某种新观点的设计而达到‘笛卡尔-胡塞尔机’,即有自主意识能力来天生任何意向工具的人工智能,那么就形成了真正的主体和自我意识。
”这表征了人工智能意识在不雅观念上的不愿定性。
大概在未来的某一时候,我们视人工智能意识为一定,这一过渡也很可能是曲折变动地发生的。
我们很少因某个奇点来认定某一状态,如人工智能意识的呈现,而是不知不觉地被带入这一田地,这很可能是社会构造与技能构造进行繁芜博弈而产生的一个结果,并不纯挚是对一个本色性的生存或技能状态的指认。

我们现在所处的时候,是否正是那个须要做出决议确定的时候呢?这源于我们对人类自身的理解以及对危急性子的判断。
只有在迫不及待的紧急情形下,如全民灭绝的威胁,才可能导致我们做出一个选择或须要一个选择。
除此之外,我们实在既担忧又充满希望,面对现实生活的寻衅不断努力迈向更美好的未来。

光阴流转,我们随意马虎为过去的遗憾而感伤,为未来的不愿定而忧虑。
然而,每个时期都有其独特的忧虑和感慨,我们所担忧的事物未必是后代所担忧的,我们所崇敬的事物大概后代弃之如敝屣。
到底人工智能能否呈现出意识,或者以何种办法呈现意识;人工智能意识问题到底是一个假问题,还是技能与社会意识的共谋?如此等等,大概并不一定须要我们来判断。
未来韶光点上的人们如何去判断,我们实在不得而知。
唯一确知的是,他们一定面临与现在不同的寻衅和机遇,他们也将面临我们现在无法想象的新奇点。

从人工智能意识的本色论,转为人工智能意识观点的误区诊治,再到包含未来维度的人工智能意识的行动实践,我们通过阳关三叠式的谈论触及人工智能意识的几个关键维度,从中看到观点错置所产生的迷惑,同样,厘清观点虽然必要,但彻底拔除人工智能意识也并非本文意旨。
在人工智能的不断实践推进过程中,意识问题也会起起伏伏,在技能的不断推进之中也会不断在肯定与否定之间摇摆,形成钟摆振荡一样平常的轨迹。
我们现在已经处于一个持续变革的时期,许多打破性的科技和创新正在改变我们的生活。
例如,阿尔法狗降服李世石、ChatGPT的涌现等。
这些看似颠覆性的变革,随意马虎给我们造成人工智能具故意识的印象;同时,文化彷佛具有更广阔的容纳力,人工智能意识论只会在日常生活中造成短暂的慌乱,随后统统又回归沉着,我们也就接管了人工智能意识的可能性。
人工智能进入事情和生活,直到下次人工智能新技能带来另一份震荡,再次引发人工智能意识的问题。
在这样的不断摇摆当中,我们可能会以为:“人工智能具故意识总是好的,万一实现了呢?”我们当然可以再加上一句:“人工智能有或没意识,这个问题有那么主要吗?”