美媒文章 人工智能犯下的“灾祸性缺点”_人工智能_的人
人类对人工智能(AI)的担忧显而易见,乃至有一全体技能哲学流派致力于弄清AI可能如何招致人类的闭幕。本文不是要助长任何人的偏执企图,而是列举了人工智能引发——或是险些引发——灾害的例子。
1.加拿大航空公司的谈天机器人给出的恐怖建议
加拿大航空公司的一个AI赞助的谈天工具就如何得到丧亲票折扣供应了缺点的建议,导致该公司被告上法庭。面对法律诉讼,加拿大航空公司的代表辩称,机器人犯的错不能算到他们头上。
像这样的情形除了可能造成的巨大荣誉丢失外,还将危害已经面临寻衅的飞机票购买业务。由于这次失落误,加拿大航空公司被迫退回了险些一半的票价。
2.纽约市网站的缺点
欢迎来到纽约市,一个不夜城,也是一个涌现了人们影象中最大的一次AI缺点的城市。人们创造,名为“我的城市”的谈天机器人鼓励企业主从事造孽活动。据这个谈天机器人建议,你可以盗取员工的部分小费、不用现金、给工人低于最低人为标准的人为。
3.微软公司机器人的不当推文
2016年,微软公司推出了一个名为“塔伊”的推特机器人,它的本意是作为一名美国青少年与人们互动,一起学习。然而,它学会了分享极为不当的推文。微软公司将这一结果归咎于其他用户,认为其他用户一贯在用各种不道德的内容轰炸“塔伊”。这个账号和机器人上线不到一天就被取消。这成为AI项目出问题的一个例子。
4.歧视性AI导致的大规模辞职
2021年,包括首相在内的荷兰议会领导人辞职,由于调查创造在之前的8年之久的韶光内,有超过2万个家庭由于歧视性算法而被欺骗。此案涉及的AI本来是为了通过衡量申请者的风险水平,重点找出可疑案例,来识别曾经欺骗政府的社会保障体系的人。但实际上终极的结果是,成千上万个家庭被迫归还他们急迫须要的育儿补贴。
5.医疗谈天机器人的有害建议
全国进食障碍协会宣告用AI程序取代人类员工后引起轩然大波。不久后,用户创造外号“特莎”的谈天机器人在给有饮食障碍的人供应有害的建议。有人责怪采取谈天机器人的举动意在毁坏工会的浸染。此事也进一步证明,面向大众的医疗AI如果没有做好准备或者没有能力帮助大众,那将造成灾害性的后果。
6.亚马逊的歧视性AI招聘工具
2015年,亚马逊的一个AI招聘工具被创造歧视女性。这个AI工具用过去10年的申请者数据进行演习,由于之前的申请者大多数都是男性,因此这个机器学习工具对存在“女性”字眼的简历存在负面意见,而且推举来自女子大学的毕业生的可能性更低。这一工具背后的团队在2017年被终结,但招聘中基于身份的偏见——包括种族主义和残障歧视——并未消逝。
7.谷歌图片的种族主义搜索结果
谷歌图片在其AI软件上搜索大猩猩时涌现黑人的图片后,曾不得不取消了这一功能。包括苹果公司在内的其他公司也曾因类似指控面临诉讼。
8.必应具有威胁性的AI
常日,谈到AI的威胁时,我们是从生存的角度来说的——威胁我们的事情、数据安全或者对天下如何运转的理解。我们常日不会预见到的是对我们自身安全的威胁。
刚上线时,微软的必应AI迅速威胁一名前特斯拉演习生和一位哲学教授,向一位著名的科技专栏作家表达深深爱意,而且还声称它曾暗中监视微软员工。
9.无人驾驶汽车带来的灾害
虽然一提到无人驾驶AI的好处和坏处,特斯拉每每霸占***,但其他公司在制造交通伤亡中也有份儿。个中之一便是通用汽车公司的Cruise。2023年10月,Cruise在驾驶过程中导致一名行人受重伤。之后,这辆车连续移动到路边,拖着已经受伤的行人。
这还没完。2024年2月,加利福尼亚州责怪Cruise在调查职员调查事件缘故原由和结果时误导他们。
10.威胁战役罪受害者利益的删除做法
英国广播公司的一项调查创造,社交平台正在利用AI删除可能的战役罪过***,这些举动可能会让受害者在未来无法进行正当的追索。
社交平台在战区和社会动乱中发挥着关键浸染,常日是那些面临风险的人的一种互换办法。调查创造,只管"大众感兴趣的图文内容可以保留在网站上,但有关在乌克兰的打击的***会被迅速删除。
11.对残疾人的歧视
研究创造,旨在支持自然措辞处理工具的AI模型歧视有残疾的人。自然措辞处理工具是许多面向公众年夜众的AI工具的支柱。自然措辞处理工具的这种问题有时被称为技能或者算法歧视,这种歧视会影响残疾人找事情或者得到社会做事的机会。将关注残疾人的经历的措辞归类为更加负面——或者像宾夕法尼亚州所说的那样,称之为“不良”——可能加深社会偏见。
12.缺点的翻译
AI赋能的翻译和转录工具并不新鲜。然而,当被用来评估避难者申请时,AI工具并不能胜任这项事情。专家认为,部分缘故原由在于,在已经问题重重的移民程序中,人们并不清楚AI的利用频率,而且很明显AI导致的缺点比比皆是。
13.苹果面部解锁功能的起起落落
苹果公司的面部解锁功能经历过因安全问题产生的诸多起起落落,并随之带来了多次公关灾害。2017年,有人以为,这个功能可以被一种相称大略的把戏所欺骗,而且人们一贯担心,苹果的工具每每对白人来说更好用。据苹果公司称,这项技能利用的是一种设备上的深度神经网络,但这并不能阻挡许多人担心AI与设备安全如此紧密地联系在一起所带来的影响。
14.不受欢迎的人气
政客们习气于被认出来,但或许不是被AI认出来。美国民权同盟2018年的一项剖析创造,亚马逊公司的人脸识别AI——亚马逊网站做事的一部分——缺点地将28名当时的国会议员认定为已经被捕的人。这种缺点在两大党的成员照片中都曾涌现,男女都有,而且有色人种更随意马虎被认错。
虽然这并不是第一个对司法造成直接影响的AI犯错的例子,但它无疑是一个警示旗子暗记,即用来识别犯罪分子的AI工具可能会产生许多缺点的结果。
15.比“机器战警”还糟糕
这是有史以来最严重的人工智能干系丑闻之一,影响了社会安全网。在这起丑闻中,澳大利亚政府利用自动系统迫使合法的福利领取者返还这些福利。2016年至2019年,有超过50万人受到这种名为“机器债务”的系统的影响。这一系统被认定为造孽,但在此之前有数十万澳大利亚人被控欺骗政府。政府还面临后续产生的其他法律问题,包括须要向受害者赔偿7亿多澳元(约合4.6亿美元)。
16.AI的大量用水需求
研究职员说,演习人工智能一年须要12.6万升水——大约相称于一个大型后院拍浮池的水。在一个水资源短缺越来越普遍的天下里,随着景象变革在技能领域引起越来越多的担忧,对供水的影响可能是AI面临的更严重的问题之一。此外,据研究职员说,人工智能的耗电量每年增长10倍。
17.AI深度造假
网络犯罪分子一贯在利用AI深度造假来做各种事情,从模拟政治候选人的声音,到制造虚假的体育***发布会,再到制作从未发生过的名人活动照片,等等。然而,最担心利用深度造假技能的是商业领域。天下经济论坛2024年发布的一份报告指出:“……合成内容处在一个行为准则和信赖不断变革的转型期。”然而,这种转型导致了一些相称恐怖的经济后果,例如一家英国公司就曾丢失2500多万美元,由于它的一名员工被通过深度假造假扮他同事的人说服,转了这笔钱。
18.年事歧视
去年秋日,美国就业机会均等委员会与远程措辞培训公司麦奇教诲科技就一起诉讼达成了和解。该公司不得不支付36.5万美元,由于它对自己的系统进行编程,以谢绝55岁以上的女性和60岁以上男性的求职申请。
麦奇教诲科技公司已经停滞在美国运营,但它公然滥用美国就业法表明了AI与人力资源交叉带来的深层问题。
19.干涉选举
随着AI成为理解天下***的热门平台,一种令人担忧的趋势正在形成。根据彭博***社的研究,纵然是最准确的AI系统,在用有关天下上的选举问题进行测试时,仍旧有五分之一的答案是缺点的。目前,最大的担忧之一是,深度造假的AI可以被用来操纵选举结果。
20.在股市上制造羊群效应
监管机构——包括英格兰银行在内——越来越担心,商界中的AI工具可能在股市上鼓励他们所说的“类似于羊群”的行动。一位评论员说,市场须要一个“紧急停滞开关”,以对抗奇怪的、应该远非人类所为的技能行为。
21.对翱翔来说的糟糕日子
至少在两起案例中,AI彷佛在涉及波音飞机的事件中发挥了浸染。根据2019年《纽约时报》的一项调查所说,一个自动化系统被弄得“更加激进和冒险”,取消了可能的安全方法。这些坠机事宜导致300多人去世亡,并引发了对该公司更深入的调查。
22.政治噩梦
在人工智能引发的无数问题中,对宦海人士的诬告曾带来一些相称恐怖的恶果。必应的AI谈天工具说至少有一位瑞士宦海人士诋毁自己的同寅,说另一人参与企业特工活动,它还声称一名候选人与俄罗斯的游说活动有关联。还有越来越多的证据表明,AI正在被用来旁边最近的美国和英国大选。拜登和特朗普的竞选团队都在探索在法律环境下如何利用AI。在大泰西的另一边,英国广播公司创造,英国的年轻选民正在收到专门针对他们的、具有误导性的AI制作的***。
23.谷歌的缺点
2024年2月,谷歌限定了其人工智能谈天机器人“双子座”(Gemini)的部分功能,由于它根据用户提交的提示问题给出了事实不准确的回答。谷歌对这个工具的回应及其缺点表明了一种令人担忧的趋势:商业现实中,速率比准确性更主要。
24.AI公司的版权案件
像Midjourney这样的人工智能产品是否可以利用艺术家的内容来演习它们的模型呢?现在已有法律案件涉及这一问题。一些公司,例如奥多比,在演习其人工智能时选择了一条不同的路线——从公司自己的容许证库中提取。如果人工智能可以利用它们不拥有的艺术品来演习一个工具,可能会进一步降落艺术家的职业安全。
25.谷歌无人机
军事和人工智能的交叉是一个敏感的话题,但它们的互助并不新鲜。在一个名为Project Maven的项目中,谷歌支持了人工智能的开拓,以解读无人机拍摄的画面。虽然谷歌终极退出了,但它可能会给那些被困在战区的人带来恐怖的后果。(编译/刘晓燕)
本文系作者个人观点,不代表本站立场,转载请注明出处!