人工智能是若何做出决定筹划的?_人工智能_菲利普
这种渴求令人满意阐明的想法匆匆使美国国家标准与技能研究院(NIST)的科学家们提出了一套评判原则,通过这些原则我们可以判断人工智能是如何阐明它所做的决定的。他们发布的草案《可阐明人工智能的四个原则》(NISTIR 8312草案),旨在引发一场关于我们该当对AI决策系统有何等期望的谈论。
根据作者的不雅观点,可阐明人工智能决策的四个基本原则是:
• 人工智能系统该当为其所有决策结果供应相应的证据或情由
• 系统该当供应对利用者故意义和可理解的阐明
• 该阐明需精确反响AI系统进行决策的过程
• 系统仅在设计的条件下或当系统对其决策结果达到足够的置信度时运行。(其理念是,如果系统对其决策结果没有足够的信心,它就不能向用户供应决策。)
该报告是NIST帮助开拓“可信”人工智能系统的一部分。NIST的根本研究旨在通过理解AI系统的理论功能和局限性,以及提高它们的准确性、可靠性、安全性、稳定性和可阐明性来建立对AI系统的信赖,这将是该报告重点谈论的内容。
草案作者正在搜聚"大众年夜众的反馈见地,由于这个主题涉及范围非常大,从机器工程、打算机科学到生理学和法律研究都有所涵盖,以是他们希望可以对此进行广泛的谈论。
该草案的作者之一,NIST电子工程师乔纳森·菲利普斯说:“人工智能越来越多地参与到高风险的决策中,没有人希望机器在不理解缘故原由的情形下做出决定。但是一个能让工程师满意的阐明可能并不适用于其他职业背景的人。因此,我们希望能从不同的角度和不雅观点来完善这个草案。”
理解人工智能系统做出决策背后的缘故原由可以使决策所涉及的每个人都受益。例如,如果人工智能有助于改进贷款批准决策,那么这种理解可以帮助软件设计师改进系统。同时申请人也会想深入理解人工智能的推理过程,或许是想知道为什么被银行谢绝,或许是在贷款批准后帮助申请人连续保持良好的信用评级。
菲利普斯说,虽然这些原则看起来很大略,但利用者常日有不同的标准来判断人工智能是否成功地知足了他们的需求。例如,第二个原则中的“阐明”有多种含义,对不同的人来说有不同的意义,这取决于他们的角色同人工智能事情之间的联系。
提到《星际迷航》中的角色时,菲利普斯说:“想想柯克和史波克他们是如何交谈的,利用人工智能系统来帮忙诊断疾病的年夜夫可能只须要史波克阐明为什么这台机器会推举个中一种分外的治疗方法。而病人可能不太须要知道个中的技能细节,但他们会希望理解柯克的背景,理解柯克与他的生活有何关系。”
菲利普斯和他的合著者们将可阐明AI决策依据的观点与之前AI的干系事情联系起来,同时他们也将人类对机器的可阐明性的哀求与人类对自己的哀求进行了比较。我们的设定是否达到了人类对AI的需求?在利用报告的四个原则探索了人类的决策支撑过程后,作者得出结论——我们的设定没有达到。
研究员们引用了几个例子,写道:“人类对自己做出的选择和推论的阐明在很大程度上是不可靠的。在没故意识的情形下,人们会将不干系的信息整合到各种决策中,从人格特质判断到陪审团裁决都会有这样的问题。”
然而,这种意识上的显著的双重标准体系终极会帮助我们更好地理解自己所做的决定,并创造一个更安全、更透明的天下。
菲利普斯说:“随着在AI可阐明性研究方面取得的进步,我们可能会创造人工智能系统的某些部分比人类自己更能知足社会的期望和目标。”他过去的研究表明,人类和人工智能之间的互助比任何一方单独事情都能产生更高的准确性。“理解人工智能系统和人类决策行为的可阐明性为人类与AI不断领悟各自上风的实现打开了大门。”
菲利普斯说,目前作者希望他们收到的评论能推进这一课题的谈论更深一步展开。他说:“我认为我们尚不清楚什么才是精确的阐明基准。说到底,我们并不是想回答所有的问题,而是努力地充足这一领域,从而让我们的谈论富有成效。”
本文系作者个人观点,不代表本站立场,转载请注明出处!