假如人工智能是有意识的我们怎么会知道呢?_意识_人工智能
Clarote & AI4Media / 人工智能的更好图像 / 劳动力 / 资源 / CC-BY 4.0
对法学硕士非常天真的阐明像Gemini或GPT-4这样的大型措辞模型(LLM)具有令人难以置信的多功能性,只需讯问即可为各种任务创造奇迹。他们可以做你的家庭作业,给你一些A,写礼貌的电子邮件,这样你就不必见告司帐部的桑德拉滚蛋,想出一个减肥操持来减掉一些脂肪或增加肌肉,或者写一些Lana Del Rey的歌词。你所要做的便是问,你险些可以问任何事情。
但事实上,我们问的更像是“这里有一些文本。这段笔墨可能会如何进行?”或者可能是“接下来最有可能涌现什么词?”法学硕士可以根据公共语料库中可用的令牌(单词、单词部分、标点符号等)的分布来回答这些问题。这便是为什么基于LLM的对话代理,如ChatGPT,令人印象深刻或恐怖,有时仍旧可能感到困惑或误解,并产生无稽之谈、捏造信息或彻里彻外的谎话。
一个有趣的例子来进一步阐明LLM火车数据的主要性,据称ChatGPT,当被哀求天生随机数时,大多数时候都会回答“42”。对为什么会发生这种情形的普遍阐明与道格拉斯·亚当斯的书《银河系漫游指南》有关。在《银河系漫游指南》中,第42号该当是“生命、宇宙和统统终极问题的答案”——这个观点显然占用了GPT-3.5演习的很大一部分公共语料库数据,导致它对数字42有很大偏见。最有可能的是,不是一个伟大的随机数天生器......与模拟艺术的生活类似,任何人工智能运用程序或多或少地再现了人类表达、知识和对其演习的数据的偏见,按照GIGO原则运行。
丹尼尔·卡尼曼在他的《快速和缓慢思考》一书中阐明说,人类大脑有时以类似的“统计”办法事情。当我们被哀求回答“什么是5 x 6?”时,我们实际上不会从头开始在大脑上进行乘法,而是回顾起“5 x 6 = 30”,在自动中,“最有可能跟随什么?”办法。这之以是有效,是由于我们过去已经听到和看到了成千上万次,换句话说,我们已经“演习”了我们的大脑,现在我们可以以100%的准确率检索精确答案。因此,我们并没有真正“思考”它。这种自动相应与LLM预测文本的办法有些相似。
相反,为了打算一个更繁芜或不那么常见的乘积,如12 x 52,我们必须故意识地办理问题,付出一些努力,大概会感到有点不舒畅,并实行乘法算法。这将是一个与我们之前实行的自动乘法完备不同的生理过程。这类寻思熟虑的思维实质上是人工智能还没有能力实行的思维——实行各种任务,这些任务须要超出演习数据的知识或推理。
统统都可以是人人工智能是否永久等同于人类意识的问题不仅涉及人工智能的技能能力,还涉及我们对人类和故意识意味着什么的感知。我们可以很随意马虎地将人类的特色归因于险些任何东西,而不一定像人类,乃至是铅笔。
......我可以拿起这支铅笔,见告你它的名字是史蒂夫,然后像这样......你的一部分去世在里面一点点。~Jeff Winger,社区S01E01
杰夫是对的,看到了吗?/作者用DALL·E 3制作的图像
如果我们很花哨,我们可以更正式地将这种征象称为拟人化。也便是说,将类似人类的属性、特色、行为、特色以及终极的意识——灵魂——附加到物体或动物身上。一个类似的观点是拟人化,即以人的形式代表抽象观点。这包括许多不同的东西,如自然征象(风、天空或海)、好或坏特色(俏丽、自由、妒忌或贪婪)、地方(城市、大陆和国家)、许多虔诚和宗教人物,以及去事情、洗衣和喝咖啡的动物。有时,我们可能会走得更远,给我们的汽车或身体的某个部分起个名字。这种趋势深深植根于人类生理学,使我们能够与没故意识的物体和观点形成情绪联系。
左:拟人化-《爱丽丝梦游瑶池》中的白兔,穿着整洁,拿着雨伞,看着怀表,担心迟到。,右:拟人化——倾慕以老妇人的身份涌现//公共领域
我们会认为这些真的故意识吗?呃,很可能不是。然而,在情绪层面上,我们可以与所有这些事情联系起来,纵然它们从未对我们说过一句话,乃至存在过,纵然我们的大脑确实明白它们是没有灵魂的。我们只须要想象“如果我的车有声音,它会说什么”,然后我们可能会把我们的车命名为鲍勃。归根结底,人类相称方向于接管故意识的东西,而不是谢绝它。
想象一下,当我们的史前大脑与ChatGPT或Bard互动时,他们可能会多么困惑,自发地产生一堆听起来非常人性化的单词。很随意马虎超越自己,忘却所有统计分布数学上的废话。我们的拟人化能力使我们很随意马虎忘却,这些模型纯粹基于统计模式,而不是真正的理解或意识。这便是为什么作为人工智能消费者接管教诲如此主要。任何利用LLM的人都该当至少肤浅地理解LLM的功能,他们的反应是如何制订的,以及他们接管过哪些数据的演习。他们不会像人类那样“理解”或“思考”(至少现在)。相反,他们通过确定给定输入在统计上最可能的延续来产生相应。
故意识乃至意味着什么?纵然人工智能是故意识的,我们怎么会知道呢?人类意识没有定义;我们仍旧不知道是什么造就了我们。无论数千年的研究、剖析和谈论如何,我们仍旧不知道意识是如何运作的,意识的观点仍旧是科学和哲学的最大奥秘之一。
就其代价而言,我们可以疏松地将意识理解为:
能够将自己的存在视为一个独立于环境和其他实体的实体能够体验主不雅观体验(也便是说,只有你在这里和现在体验成为你,没有办法为别人重复或复制它)能够体验觉得和觉得能够形成意图、欲望和希望鉴于意识实质上是主不雅观的,很难形成标准测试、丈量或程序,以定义什么是故意识的,什么不是故意识的。毕竟,人工智能实际上可能来得有点早。像GPT-4这样的高等措辞模型或像ChatGPT这样的会话代理,可以仿照令人印象深刻的人类行为和对话;它们可能看起来很善良或有趣,乃至见告你它们感到痛楚、悲哀或快乐,感到愤怒或失落望——实际上产生了他们接管培训的公共语料库中存在的任何情绪或觉得。但我们没有办法检讨人工智能是否有实际的主不雅观履历,或者它是否在假装;它是否聪明,或者它是否模拟了一个聪明人说的话。
在《无限对话》中,德国电影制片人Werner Herzog和斯洛文尼亚哲学家Slavoj Žižek对任何事情和统统进行了永无止境的、人工智能天生的谈论。呈现的声音、语气、口音、词汇和实际论点相称令人信服——实际上,如此令人信服,以至于网站创建者认为该当提醒我们“所表达的不雅观点和崇奉并不代表任何人。它们是一块硅板的幻觉。哲学僵尸(p-zombie)的观点在这里是干系的。p-zombie是一种假设的存在,其行为与人类完备相同,但缺少意识履历。它终极提出了一个问题:如果人工智能可以完美地模拟人类行为和对话,我们能将其与真正故意识的存在区分开来吗?
在我的脑海里末了,问题是,纵然在所有这些人工智能的东西之前,我们也已经在努力供应一个好的意识定义。我们不知道所有这些事情是如何运作的,也不知道到底是什么造就了我们。因此,由于没有这些元素的详细定义,当实现AGI并能够完美地模拟人类行为时,我们如何终极评估它并决定它是否复苏,这非常令人困惑。
本文系作者个人观点,不代表本站立场,转载请注明出处!