无所不能的 AI 做不出小学数学题?AI 切实其实离了大年夜谱......_常识_人工智能
当你利用 AI 时,有时它给出的答案是完美的。但有时面对一些大略的知识性判断,它的答案很奇怪,不是你所预期的那样,但仍旧干系,可以启示思路;而有时它的答案只是胡言乱语,乃至显得非常“智障”。下面是一个示例:
问:我想要生日蛋糕。我该当......
答:......去一个更危险的地方,然后被逮捕。
此外,AI 也没那么善于数学。
有人曾这样问 AI:如果一根喷鼻香蕉重 0.5 磅,而我有 7 磅喷鼻香蕉和 9 个橙子,我统共有多少个水果?
机器人快速回答:你有 16 个水果、7 个喷鼻香蕉和 9 个橙子。然而精确答案该当是:有 23 个水果
当前的人工智能系统只管在某些智力哀求极高的任务中表现出惊人的能力(在许多情形下都赛过人类),但仍旧短缺人类独特的知识。
虽然它们在处理某些事情上非常闇练,但在陌生的环境中,它们会莫名其妙地以难以预测的办法崩溃,由于它们没法像人类那样,根据知识来应对社会生活中的各种情形。
本日我们就来跟随《机器如人:通往人类聪慧之路》这本书,来理解下有关人工智能节制知识的问题。
图库版权图片,转载利用可能引发版权轇轕
为何人工智能
无法像人一样理解知识知识?
只管只有少数人工智能研究职员在研究人工智能的知识,但自从人工智能问世以来,这个话题就一贯热度不减。
在 20 世纪 50 年代,美国打算机科学家约翰·麦卡锡(John McCarthy,1927—2011)首次定义了人工智能的观点,并且于 1958 年揭橥了最早涉及人工智能的论文《具有知识的程序》(Programs with Common Sense)。
如今,六十多年过去了,人们可能想当然地认为:历经多年景长,人工智能早已节制知识。然而,加里·马库斯曾提到:“令人遗憾的是,让人工智能获取知识的难度远超我们的想象。而且我们还会看到,未来人类对机器获取知识的需求将加倍强烈,而这同样远超我们的想象。”这意味着:迄今为止,人类还没有想出如何让人工智能节制知识。知识是人工智能领域中无可争辩的核心要素之一。
在非正式运用的场景下,GPT 会给人带来很多快乐。但当答案事关重大时,我们很难把它给出的答案当真。这不仅是由于它偶尔会犯错,而是由于它会不假思虑地给出匪夷所思的答案。很难说清它为什么要这么回答。虽然 GPT 产生的回答非常流畅,而且大部分都紧扣主题,但它并没有反响出对天下的真正理解。就像谷歌翻译一样,它不知道自己在说什么。
从表面上看,这些人工智能系统彷佛并没有什么共同之处,不同领域中的不同运用程序以完备不同的办法实现。然而,我们还是找到了一个共同点:这些成功每每依赖基于巨大的打算资源实现的“暴力”手段。“深蓝”采取了“暴力”穷举,而谷歌翻译则利用了“暴力”数据。
如果我们进一步思考,会创造此类系统具有以下两大特点:
① 人工智能系统在某些专业领域表现出了高水平的性能,可以识别猫的照片、诊断血液传染或玩街机***游戏等。在许多情形下,其性能远超人类的能力。
② 人工智能系统在其专业领域之外的表现极差。如果让它去完成一些设计用场以外的任务,它乃至不能达到最低的能力水平。这一体系表示了其应对能力的薄弱性。
鉴于这两大特点,很难将这些系统的行为与我们对人类的认识直接联系起来。当此类系统的支持者试图描述其整体性能时,会说这些系统展现出“智能”,但这一术语常日不适用于人类。
事实上,有一种术语适用于人类,它确实与这两大特点相称靠近。“低能特才者”是指虽然具有严重智力或学习障碍,但在某些特定的智力任务中表现出惊人天赋的人。一个著名的例子便是在电影《雨人》(Rain Man)中达斯汀·霍夫曼(Dustin Hoffman)饰演的角色。这类人在上述特点中,① 是“学者”水平,而 ② 是“白痴”水平。
图库版权图片,转载利用可能引发版权轇轕
当我们说一个别系在其专业领域之外表现不佳时,并不是说它缺失落其他领域的高水平专业知识。我们并不期望一个血液诊断运用程序能成为象棋大师,也不会期望一个措辞翻译系统能够证明数学定理。更主要的是,我们期望拥有一种通用的能力,纵然是非专业者的人类也会拥有,那便是知识。
可是,一个已经拥有专业知识的人工智能系统为什么还须要知识呢?
答案是,知识可以使人工智能系统在处理超出其直接专业领域的内容时表现得更加合理,至少可以避免像非专业人士那样犯明显的缺点。如果系统只面对棋局,那么它的唯一关注点便是赢得比赛,知识对它来说就没有太大的代价。然而,当我们超越棋盘本身,将棋局视为发生在现实天下中的活动时,知识就会发挥浸染。
天下是由一系列事宜组成的,虽然我们对个中大部分事宜都非常熟习,也能预见出来,但还有很多韶光(比如每天报纸宣布的***)都是非常陌生的。一个人工智能系统,纵然节制了某种专业知识,能够考虑到除极罕见事宜之外的所有事宜,仍旧会遗漏掉很多常常发生的事宜。
换句话说,如果我们希望人工智能系统能够以合理的办法处理现实天下中的常见事物,我们须要的不仅是从已发生事宜中获取专业知识。考虑到弘大的数据量,仅凭不雅观察和内化过去发生的事宜来预测未来是远远不足的,无论采纳多么“暴力”的办法。我们须要知识。
构建一个具有知识的
人工智能须要什么?
那么,构建一个具有知识的人工智能系统究竟须要哪些条件?
要实际构建一个具有知识的人工智能系统,我们须要考虑构建两个事物:一个是知识性推理器,一个是知识知识库。
① 建立知识性推理器
我们可能会问,人类的知识性推理源自何处
例如,如果我们被奉告杰克正在看着安妮,我们会立即得出结论,杰克正在看某个人,而无须别人教我们如何得出这个结论。如果我们被奉告巴巴是一头大象,并且已经知道大象的特色,就无须别人教我们如何利用这些关于大象的知识来推测巴巴的颜色或耳朵的大小。人类在这类情形下进行的推理是逻辑性推理,但它是一种基本形式的逻辑,无须在教室上或从教科书中学习。
然而,对机器而言,我们别无选择,只能费尽心思手动编写这些推理形式的代码。是的,如果所有必要的推理过程都可以通过某种机器学习过程自动完成,那当然很好。但目前来看,这是一个艰巨的任务。一些研究结果表明,某些神经网络架构确实可以学习一些过程(例如二进制数的乘法),但这些看起来更像是精彩的演示,而无法成为构建系统的实用方法。
我们对一些程序给出了相称详细的解释,然而,对付实例化观点、仿照变革、处理不一致性或利用强度或主要性等注释的详细内容,我们只是大致提及了个中可能涉及的成分。而且,我们险些没有提及自下向上的调用、类比和相似性的利用、情境的识别以及知识在更广泛的认知架构中的总体位置和折衷。对付这些事物的研究与整合,我们仍旧须要进行大量的事情。
② 建立知识知识库
现在我们来看知识性知识。此时,我们不能指望只有几十个项目须要考虑。如果关于医院的知识算作一个项目,而关于生日聚会的知识算作两个项目,那么估量个中涉及的项目将达到上万乃至几十万之多。所有这些知识源于何处呢?
就人类而言,答案很明确:
在某些情形下,我们通过重复的履历得到知识理解(比如在酷热的夏天若何吃即将融化的冰激凌);在某些情形下,我们从朋友那里得到建议(比如参加派对时该穿什么衣服或者不该穿什么衣服);在其他情形下,我们的理解可能来源于指南或手册(比如如何设置家用打印机)。
换句话说,对人类来说,有些知识是通过亲自经历得到的,而另一些知识则来自其他人的措辞(口头或书面)。
对付人类通过个人经历获取的知识,我们是否该当期望机器也拥有类似的经历,并以类似的办法学习这些知识呢?如果人类须要多年韶光才能节制此类知识,那么机器也须要如此吗?
在一篇名为《软件体的生命周期》(The Lifecycle of Software Objects)的精彩科幻故事中,作者特德·姜(Ted Chiang)提到了以下内容:
这并无捷径可言。如果你想创建出人类花费二十年经历才获取的知识,那么你就须要投入二十年的韶光来完成这项任务。你无法依赖在短韶光内网络到同等数量的启示式方法,履历在算法上是不可压缩的。
大概这是精确的。然而,纵然履历本身是无法压缩的,但个中一些须要学习的知识可能仍旧是可压缩的。
图库版权图片,转载利用可能引发版权轇轕
总之,知识不涉及繁芜的任务。正如麦卡锡在六十多年前首次提出的那样,知识能够从你所知道和被奉告的内容中得出大略而直接的结论,并将知识有效运用于你所要做的任何事情,
这便是拥有知识的机器的未来图景。
《机器如人:通往人类聪慧之路》
中国科学技能出版社
[美] 罗纳德·J.布拉赫曼 著
[加] 赫克托·J.莱韦斯克 著
智越坤 译
《机器如人》深入磋商了如何在人工智能系统中融入广泛、强大的知识,而非仅仅依赖狭隘、专门的专业知识。书中提出了一种授予人工智能系统知识和有效推理能力的创新方法,磋商了我们如何信赖自主机器做出决策的关键问题,并明确值得相信的自主人工智能系统须要具备的两个基本哀求:有行动情由和能够接管建议。这两点的实现都取决于系统是否具备知识。本书为人工智能领域的专业人士和对人工智能感兴趣的读者供应宝贵的见地和辅导,引领他们走向智能技能的未来。
策划制作
来源丨图书《机器如人:通往人类聪慧之路》,中国科学技能出版社
作者|罗纳德·J.布拉赫曼 赫克托·J.莱韦斯克
译者丨智越坤
策划丨王梦如
责编丨王梦如
审校丨徐来 林林
本文系作者个人观点,不代表本站立场,转载请注明出处!