AI分不清黑人与大年夜猩猩?研究创造人工智能也歧视_人工智能_数据
据不完备统计,目前,政府参与制订的人工智能管理准则或建议共有9份,个中涉及国家共50个,涉及国际组织或论坛共3个。AI前哨站对这些准则或建议进行文本分析后创造,“数据偏见” 是各国各地区最为担心的问题。
AI前哨站结合各文件的文本分析创造,准则中特殊指出的负面问题共有15类。个中,数据偏见、不公正等问题提及次数最多,其次是隐私安全和AI故障、缺点决策等问题。当然,这些问题之间并不是割裂的,比如,数据垄断导致获许更多数据的一方霸占上风,也会导致不公正征象;数据和演习质量差也会导致偏见、不公正等问题。个中,多有提到的“影响人类自主性”指,AI可能会被用于塑造和影响人类行为,也可能会被误用去操控他人的决策,这是极其危险的。
9份准则提及负面问题。人工智能也有偏见?过去,人们大概不会想到,一向以准确、客不雅观、没有感情方向著称的打算机系统,也会跟人类一样具有偏见。英国对这一问题进行了完全地阐述:一方面,技能职员利用不准确、不完全的数据演习人工智能系统,或是在演习中涌现了缺点,都可能导致偏见。比如,谷歌的视觉识别算法难以分辨出黑猩猩和黑种人,该问题被创造后的近三年,仍旧没有得到办理,谷歌只是大略地在谷歌相册等产品中禁止了搜索黑猩猩的功能。另一方面,数据本身可能就暗含了社会中的固有偏见(一个范例的例子是,在弗吉尼亚大学的一项研究中,人工智能总是把厨房中的男人认成女人)。
如果研发职员压根不知道数据里有隐蔽的偏见,就会涌现问题。更麻烦的是,许多人工智能系统利用多层神经网络进行决策,研发职员无法知晓人工智能的决策过程,也就难以准确节制造成偏见的缘故原由。要在“算法黑箱”中排查问题、改动偏见,难度可想而知。
此外,新加坡提到了消费者可能遭遇的偏见,有些类似此前在海内引发高度关注的“大数据杀熟”,比如两名消费者在同一地点、韶光利用打车软件,前往相同地点,却创造两人的打车费不同,消费者是无法理解到打车费是如何得出,且为何不同的。其余,文件指出,对付一些可能对消费者产生重大影响的决策,消费者有权知晓人工智能是怎么参与的、决策是如何作出的。尤其是在医疗领域,如果人工智能做了缺点的诊断,其后果显然比推举了缺点的商品严重得多。
在隐私安全方面,各国政府与国际组织都提到了人工智能可能陵犯隐私的问题。欧盟提出,隐私和数据保护必须在人工智能系统生命周期的所有阶段得到担保。日本内阁府提出,人工智能利用个人数据时该当有确保准确性和合法性的机制,并使个人数据主体能够充分参与管理自己的隐私数据。中国则提出,应完善个人数据授权撤销机制,反对任何盗取、修改、透露和其他造孽网络利用个人信息的行为。
备受大众关注的“人工智能是否会导致人类失落业”的问题,在英国、经合组织和G20的文件中都有提及。经合组织和G20提醒,人工智能发展可能导致劳动力市场转型,各国政府应做好应对准备,确保那些被替代的人类劳动者也能经历平稳过渡。政府可以供应培训支持,帮助失落业人士得到新的事情机会。
在英国的文件中,有研究者声称,人工智能的运用可能会像上个世纪的工业化、自动化浪潮一样,导致部分事情消逝的同时,也创造一些新的事情机会。不过,也有研究者指出,过去的自动化每每是将一项原有事情分解,人类可以环绕着新技能重组事情,这一模式在未来的高度自动化时期不一定能延续。有研究者认为,蓝领、白领受到的冲击将会更大,事情机会减少的趋势已在客服、话务员等行业涌现。
据此,文件写道,随着人工智能的进入,劳动力市场正发生巨大变革,由于这是一个全新的未知领域,任何预测都具有“投契性”。英国建议政府持续评估人工智能的发展情形,并作出政策回应,个中,在技能和培训方面增加投入,是一项不可或缺的举措。
值得把稳的是,英国和欧盟的文件中还都剖析了人工智能军事化的问题,紧张是“致命的自主武器系统(LAWS)”。英国文件指出,目前各国“自主武器”的内涵并不一致,英国将“自主”描述为“能够理解高水平的意图与辅导”过于宽泛,可能导致LAWS的发展缺少限定。欧盟文件则指出,将人工智能运用于 LAWS带来了基本的伦理问题,可能导致前所未有的武备竞赛,与此同时,高度自主化的武器也有分开人类掌握的风险。
除了整体的负面问题剖析,AI前哨站也对9份文件的正文主体进行了词频剖析。
此份建议的最高频词汇是“组织”,强调利用AI的组织主体,其次有“数据”、“决定”、“偏见”和“风险”,看重数据网络、处理和演习过程中是否涌现偏见等问题。比如,建议中写到:
“最小化内在的歧视,即人工智能模型框架须要把稳数据集的内在歧视,这可能会导致不理想的效果,比如无意识的歧视决策。”
G20的《人工智能准则》借鉴了经合组织的《人工智能建议》,两份文件都是多国政府间协商推出的建议,强调行动主体,包括“政府”、“行动者”和“利益干系方”,同时强调AI系统必须是值得相信的、负任务的、适宜的。
从高频词汇“哀求”、“评估”以及结合文本的剖析过程中,AI前哨站创造,欧盟在对AI系统和数据提出原则建议的根本上,供应了目前为止,在政府推出的AI准则中,最详细、可落地的哀求和评估,比如明确了组织中各部门的AI管理职责。
在“隐私和数据管理”一节,详细问题有11个,包括“你是否考虑过一些方法,可以在不该用或最少利用敏感个人数据的情形下开拓AI系统或演习模型?”,“你是否通过加密、匿名化等方法来增强隐私保护?”“你如何验证数据没有遭到危害和入侵?”,等等。其次是新加坡、迪拜和英国的建议文件,有涉及落处所法,比如新加坡供应了从严重性和可能性两方面,评估“AI决策过程是否须要人类参与”的模型,迪拜供应了实际的例后世昆裔争决办法的参考,而日本、中国、经合组织和G20的文件侧重原则阐述。
此份管理原则的最高频词汇是“发展”,结合文本创造,中国强调人工智能的康健发展、折衷发展、绿色发展和共享发展等方面。其余,还强调人工智能对“人类”和“社会”的影响,须要“尊重隐私”、“尊重人类权柄等”。中国政策文件中的高频词“和谐”、“文明”、“公道”等词汇也有所涌现。
注:词频剖析选择的文本主体不包括媒介、先容等文本,词频剖析去除“to”, “and”, “of”, “model”, “framework”等无效词汇。采写:南都见习陈志芳 冯群星
制图:尼加 黄绍红 陈志芳
本文系作者个人观点,不代表本站立场,转载请注明出处!