2022年3月,美国国家标准与技能研究所(NIST)发布《建立标准,创造和管控人工智能存在的偏差》报告。
赛迪智库信息化与软件家当研究所对报告进行了编译,期望对我国有关部门有所帮助。

《建立标准创造和管控人工智能存在的误差》摘译_误差_人工智能 云服务

报告认为,人工智能中的偏差问题会对个人、组织和社会产生一系列负面影响,须要采纳社会技能的系统方法加以应对。
报告先容了人工智能偏差的观点,剖析了由此产生的各种危害与寻衅,并建议从数据集、测试评估验证环节、人为成分三个关键维度制订初步的人工智能管理社会技能框架,进而提出了相应的操作指南。

一、人工智能偏差:背景和术语

(一)人工智能偏差干系观点

1、人工智能偏差的定义

统计性定义:在技能系统中,偏差常日都被理解为一种统计征象。
与随机偏差不同,偏差是一种通过对统计结果进行系统性扭曲从而毁坏其代表性的效应。
国际标准化组织(ISO)将偏差更广泛地定义为:“参考值偏离事实的程度”。
因此,当AI系统表现出系统性的失落准行为时,就可被认定存在偏差。
这种统计性视角并未充分涵盖或揭示AI系统中存在偏差所造成的全部风险。

法律性定义:对人工智能偏差的谈论不能分开美国法律体系中针对偏差的处理办法,以及偏差与办理歧视和公正性的法律法规之间的关系。
目前,对付不许可的歧视性偏差,法院一样平常会采纳差别对待或差异性影响两种办法进行定义。
监管机构与法院尚没有统一的办法来衡量所有不许可的偏差。

认知和社会背景:人工智能系统设计和开拓的团队将他们的认知偏差带入流程,致使偏差普遍存在于各项假设中。
若系统性偏差存在于制度层面,则会影响到机构或团队的构造和决策流程的掌控者,带来人工智能生命周期中的个人和群体启示性偏差与认知/感知偏差。
同时,终端用户、下贱决策者和政策制订者做出的决策也会受到这些偏差的影响。
由于影响人类决策的偏差常日是隐性且无意识的,因此无法轻易地通过人为掌握或意识纠正进行限定。

2、人工智能偏差的种别

▲图1:人工智能偏差的种别

系统性偏差:系统性偏差也被称为制度性偏差或历史性偏差,源自特定机构的程序或做法,其运作办法致使某些社会群体处于上风地位或受到青睐,而其他社会群体则处于劣势地位或受到抑低,如制度性种族主义和性别歧视。
这些偏差来源于人工智能利用的数据集,乃至贯穿人工智能生命周期,存在于更广泛的社会制度规范和流程中。

统计性和打算性偏差:统计性和打算性偏差源自样本不能代表总体所导致的偏差。
这些偏差由系统性缺点而非随机性缺点所导致,而且在没有偏见、左袒或歧视意图的情形下也可能发生。
这些偏差存在于开拓人工智能运用所利用的数据集和算法过程中,当算法针对某一类型的数据进行演习且无法进行外延时,偏差就会产生。

人为偏差:人为偏差反响的是人类思维中的系统性偏差,这些偏差源于启示性事理数量有限以及基于大略判断进行数据预测。
人为偏差每每是隐性的,而且很可能与个人或群体如何感知信息以进行决策或补充缺失落或未知信息有关,仅仅提高对偏差的认识并不能确保对它的限定。
这类偏差无处不在,贯穿人工智能生命周期中的机构、群体和个人决策过程,乃至人工智能运用支配后的利用过程。

(二)人工智能偏差的危害

一方面,当利用人工智能供应决策支持时,若没有人工操作员对其进行干系约束,机器学习模型常常会由于“认知不愿定性”和“有时不愿定性”等影响而造成糟糕表现。
而且目前用来捕捉这些模型的有害影响及其他后果的方法既不精准也不全面。

另一方面,机器学习系统能否依照人类社会的代价不雅观进行学习和操作仍是一个亟待研究和关注的领域。
系统性偏差和隐性偏差可能通过演习时利用的数据,以及支撑人工智能委托、开拓、支配和利用办法的制度安排与做法而带入。

(三)应对人工智能偏差危害的新视角:社会技能视角

传统堆叠技能办理方案并不能充分反响人工智能系统的社会影响,仅从打算角度试图办理偏差存在局限性。
因此,要将人工智能扩展到公共生活的方方面面,须要将人们的视角从纯技能角度拓展为本色上的社会技能视角,站在更伟大的社会制度层面来思考人工智能。

(四)更新后的人工智能生命周期

为了使人工智能干系技能职员将人工智能生命周期过程与人工智能偏差种别联系起来,有效促进对偏差的创造和管控,本文给出了一个四阶段人工智能生命周期(图2)。

▲图2:人工智能开拓生命周期

二、减轻人工智能偏差面临的寻衅与建议

(一)人工智能偏差中的数据集

1、数据集方面存在的寻衅

人工智能的设计和开拓高度依赖大规模数据集,这种需求可能会勾引研究职员、开拓职员和从业职员更在乎数据集的可用性或可得性,而无论其得当与否。
结果是,当现成的、却不能完备代表目标总体样本的数据集被反复用作演习数据时,系统性偏差也可能会表现为可得性偏差。

2、数据集方面的改进建议

应对统计性偏差:应对人工智能偏差的一个紧张趋势是关注建模过程中所利用数据集的全面统计特色。
对付算法模型来说,常见的算法技能都假设变量是单峰的。
然而,数据却每每是异构和多峰的。
因此,无论模型是用于基准测试、预测还是分类,必须记录和互换人工智能结果的适用性存在的局限。

运用社会技能方法:人工智能建模须要结合地区详细地理特色,因此,须要对机器学习运用中数据集的利用加以调度,以适应其支配环境中的所有社会技能成分。

关注人为成分与数据集的相互浸染:构建人工智能运用根本模型时,设计和开拓团队关于利用哪些数据集的决定和假设会加剧数据集中存在的系统性、制度性偏差。
同时,在数据选择、管理、准备和剖析过程中,人为偏差也会造成一定影响。

(二)对人工智能偏差进行测试评估、确认及验证时的把稳事变

1、TEVV(测试评估、确认及验证)方面存在的寻衅

机器学习过程中的预测不愿定性:机器学习存在两种类型的预测不愿定性:“认知不愿定性”和“有时不愿定性”。
“认知不愿定性”常在参数打算中涌现。
由于数学问题上的解值具有非唯一性,当真实数据与演习数据的分布不匹配时,可能会影响已支配的深度学习系统的行为,导致有害偏差。

大型措辞模型的发展带来寻衅:大型措辞模型在深度学习中的主要性不断增加,但其在“认知不愿定性”和“有时不愿定性”方面造成了重大寻衅。
依赖大量未经整理的网络数据会增加有时不愿定性。

2、TEVV(测试评估、确认及验证)方面的改进建议

减少算法偏差:在机器学习中,若短缺算法运用于详细任务的背景信息,给模型或算法指定偏差本身是没故意义的。
例如,在自然措辞处理的背景中,仇恨辞吐检测模型利用方言标记作为毒性预测因子,这可能导致对少数民族群体的偏差。

完善公正性指标:目前的研究表明,公正性简化成一个简明的数学定义是困难的,同时不雅观察性的公正性指标尚有待发展。
公正性是动态的、社会性的、特定于运用和环境的,而不仅是一个抽象或普遍的统计问题。

(三)人工智能偏差中的人为成分

1、人为成分方面存在的寻衅

设计与开拓环节的实验环境与现实存在差距:AI系统的设计和开拓是为了在特定的现实天下环境中利用,但每每在空想化的场景中进行测试。
一经支配,最初的意图、理念或影响评估都可能发生偏移。
不同的支配环境意味着须要考虑一系列新的风险。
在决定构建AI系统之前,需先与可能受到这些技能支配影响的广大干系方群体进行打仗,这一点至关主要。

2、人为成分方面的改进建议

引入影响评估过程:一种名为算法影响评估的方法旨在确保以合乎伦理和负任务的办法进行人工智能技能开拓。
个中,创造和应对潜在的偏差是评估过程中的主要步骤。
算法影响评估供应了一个高等构造,使机构能够框定每种算法或每次支配的风险,同时考虑到每个用例的详细情形。
同时,参与影响评估还可以作为一种逼迫机制,迫使有关机构主动阐明统统风险,然后在发生任何危害时天生相应的缓解方法文件。
此外,影响评估应是一个长期、迭代的任务,必须以合理的节奏反复进行影响评估。

三、结论

本文广泛论述了人工智能偏差有关的风险,并提出了相应的应对方法。
本文基于研究创造,提出如下要点:

1.制订详尽的技能指南须要韶光和来自不同干系方的参与,包括与人工智能运用设计、开拓和支配干系的群体,也包括可能受到人工智能系统支配影响的群体。

2.采取社会技能视角可以优化人工智能生命周期的流程。
人们应将社会代价不雅观付诸实践,并环绕人工智能的构建和支配办法制订出新的规范。
为此,需理解打算成分、统计性成分与系统性偏差、人为偏差发生交互浸染的机制。

3.为人工智能偏差制订的初步的社会技能框架可按照三个关键领域进行划分和谈论。

完全内容,请关注公众年夜众号ID:ccid-2014