MIT研究注讲解明人工智能是人类面临的重大年夜寻衅_人工智能_人类
在快速发展的人工智能(AI)领域,创造能够像人类一样看到、听到和理解的机器不再是一个迢遥的梦想,而是一个越来越近的现实。然而,随着人工智能系统的繁芜性越来越大,并开始更靠近人类的能力,一个新的寻衅涌如今地平线上——作为人类,我们如何阐明这些人造头脑做出的决定?人工智能中可阐明性的寻衅正在成为研究职员和从业者之间谈论的焦点,正如麻省理工学院(MIT)最近的研究所示。
寻衅的核心是二元的。一方面,以图像和语音识别能力而有名的深度神经网络(DNN)开拓了独特的“不变性(invariances)”,使他们能够在不同的条件下识别物体或单词。然而,麻省理工学院的一项研究显示,这些不变性是特质的(idiosyncratic)。当对DNN进行调查以根据其不变性天生图像或单词时,由此产生的输出常日无法被人类不雅观察者识别。调查结果表明,虽然DNN善于复制类似人类的识别,但辅导其决策的基本过程仍旧与人类感知过程根本不同。
另一方面,人们希望人工智能的决策过程对人类来说是透明和可理解,这个观点被称为可阐明性。这导致了对形式规范(formal specifications)的探索,将数学公式翻译整天然措辞表达,以阐明人工智能决策。然而,麻省理工学院林肯实验室的研究职员进行的一项研究揭示了一个严厉的现实:只管形式规范在数学上精确,但未能使人工智能的行为能够被人类阐明。在这项研究中,纵然以更人性化的办法呈现形式规范,如决策树,参与者也可以仅以约45%的准确率验证人工智能的操持,远非令人满意。
麻省理工学院这些研究的创造凸显了一个重大障碍。随着人工智能系统越来越多地支配在医疗保健、金融和国防等关键领域,人类理解、信赖和验证人工智能决 策的需求变得至关主要。如果不清楚地理解人工智能系统如何得出详细结论,与在现实环境中支配这些系统干系的风险就会放大。
寻求可阐明性不仅仅是学术问题,而是具有实际的必要性。正如麻省理工学院林肯实验室的研究员Hosea Siu所指出的,可阐明性对付现实天下对人工智能系统的信赖至关主要。如果机器人或人工智能系统能够以人类理解的办法阐明其行为,用户可以辨别该系统的决定是否公正,是否须要调度,或者是否可以信赖。
在人工智能中实现可阐明性的道路上充满障碍。紧张寻衅之一是许多人工智能模型的“黑匣子”性子,个中决策过程被粉饰了。机器学习过程常日发生在人类无法理解的领域,因此破译系统为什么或如何做出特定决定是一项艰巨的任务。
此外,从形式规范中可以看出,将繁芜的数学表达式翻译整天然措辞表达式的努力提出了措辞和认知寻衅。到目前为止,弥合形式规范的精确语义和人类可阐明性之间的差距的努力已被证明像是攀登陡峭的山峰。
人工智能可阐明性的难题提出了一个紧迫的问题:随着人工智能系统在我们的日常生活和决策过程中变得越来越多,我们如何确保其操作保持透明、可理解,并终极对人类卖力?答案可能在于一种多学科的方法,将人工智能技能的进步与认知科学、措辞学和人机交互的见地相结合。
总之,阐明人工智能的寻衅是一个多方面的问题,它超越了技能障碍,涵盖了道德、社会和认知方面的考虑。随着人工智能连续向类似人类的感知和理解迈进,确保其过程仍旧对人类可阐明不仅仅是技能上的须要,而且是社会确当务之急。对可阐明性的追求是一场在等待我们的相互交织的未来中培养信赖、协作以及人类和人造头脑之间和谐共存的旅程。
本文系作者个人观点,不代表本站立场,转载请注明出处!