http://cjjc.ruc.edu.cn/

择要

社交聊天机械人的性别偏见——基于小冰系列的对话测试研究_性别_机械人 计算机

人工智能社交谈天机器人被视作具有人性特色的通信者,理解它们与人类进行交互过程中的性别偏见问题十分主要。
本文利用对话测试的方法,设计了一系列用于测试机器人性别偏见的问题,对海内三款主流社交谈天机器人进行测试,并基于交互文本展开质性编码剖析。
结果表明,社交谈天机器人在自我性别认知、性别刻板印象、性别平等、应对性别骚扰等方面均表现出明显的性别偏见,且与社交谈天机器人本身被授予的男女性别角色无关。
作为人机交互技能产物的社交谈天机器人的性别偏见,由用户参与、对话系统技能支持、科技公司和程序开拓者共同建构,而以社交谈天机器人为代表的AI在学习和模拟中复刻与强化了人类社会性别构造性力量的性别偏见。

作者简介

马中红,苏州大学传媒学院教授。

吴熙倡,苏州大学传媒学院硕士研究生。

基金项目

本文系国家社科基金项目“青少年女性数字媒介文化实践研究”(项目编号:19BXW112)的阶段性研究成果。

研究缘起

近年,一种基于人工智能、自然措辞和对话系统等技能的谈天机器人产品在环球逐渐盛行。
2022年底,“ChatGPT”走红将这种技能热潮推向全民。
谈天机器人既属于对话系统,也是社交机器人(social bots)中的一种,在某种程度上起到替代人类与人类进行互换、情绪陪伴与日常互动的浸染。
人类与打算机的直接交互,使得打算机不但是作为互换的媒介,而且成为能与人类进行交互的主体,“人机交互”(Human-Computer Interaction,HCI)由此成为打算机科学、通信技能和传播学等领域新的研究路径。
在人类与智能技能深度互依的社会情境中,不难创造,嵌入我们日常生活的语音助手、语音导航系统、谈天机器人等智能产品所预设的声音或虚拟的形象常日都是女性化的。
只管技能中立者认为智能设备技能上能够实现机器人性别的中性化或多元化,但这些人机交互产品所预设的视听化特性,无一不在暗示用户:机器人是有性别的、做事型和陪伴型的机器人常日扮演的是女性角色。
依据人机交互领域现有成果可知,智能机器人产品及技能并非中立,而是存有明显种族偏见的。
那么,集智能技能与情绪于一体并最大可能地仿真人类的社交谈天机器人,它们具有若何的性别意识和性别偏见?

人机交互、技能与性别关系的流变

人机交互指人与机器之间产生互换与互动。
随着智能化程度的提升,“机”经历了机器、打算机、机器人、人形机器人的演化进程,其趋向是机器属性越来越减弱,表现得越来越“人格化”(Suchman,1987)。
“交互”则从特指人际之间的关系延伸至人与机器的互换,同时,人机关系也逐渐从人单向度操控机器为人供应功能性做事发展到人机互动的“情绪互换”(梁爽,2021)。
保罗·多罗西(Paul Dourish)(2001) 乃至强调,人机交互虽然是打算机程序设计者建构的中介互换系统,但机器在与用户互动中能产生勾引用户的行为。
打算机是具有自主性和社会互动性子的“参与传播者”(蔡润芳,2017)。
一方面,机器/打算机被哀求知足人类越来越个体化的需求,从人适应机器向机器主动适应人转向;另一方面,在与人类交互过程中,打算机、机器越来越智能,情绪联结越来越强化。
人与机器正在进行角色互换,人类不再看重机器的媒介性子(陈昌凤,2022),人机之间的关系和界线变得越来越模糊。
与此同时,“人机交互”模式从指令相应、智能做事叠代更新到当下的人机对话,机器完备适宜人类的措辞系统与交往习气,“互动中与人对话的机器险些可以视为具有自主天生能力的社会行动者”(郭全中,张金熠,2023)。
语音交互是人机对话中最主要的交互模态之一。
早期指令式的人机对话,如汽车导航系统,机场、火车站的自动语音播报,依赖于用户与打算机在高下文中交流的或输入的数据,缺少真正与人智能对话的能力,但从2011年苹果公司发布“Siri”语音助手起,人机交互式智能语音助手进入真正智能阶段,其核心技能包括:机器学习、语音识别、逻辑单元、问答(QA)、对话管理(DM)、措辞天生(LG)、文本到语音(TTS)合成、数据挖掘、剖析、推理和个性化(Sarikaya,2017)等等,能够帮助人类进行数据源的在线访问和查询交互。

人机交互的社交机器人,在技能上与智能语音助手相仿,但它能为用户供应额外的社交选项。
周钰颖等(2022)认为,社交机器人在广义上是指“具备一定社交功能,被用于实现人机交互的软硬件系统”。
张洪忠、段泽宁、韩秀(2019)从传播学视角,将社交机器人定义为“在社交媒体中扮演不同人格属性的人类,并与人产生互动行为的虚拟AI形象”。
社交机器人种类繁多,娜塔莉·马雷夏尔(Nathalie Maréchal)(2016)将之区分为四种类型:恶意僵尸网络机器人(malicious botnets)、调研机器人(research bots)、编辑机器人(editing bots),以及可以回答查询的谈天机器人(chat bots)。
个中,谈天机器人是一种开放域对话系统,这种对话系统许可用户与谈天机器人进行高自由度且具有社会性的对话和互动(贾熹滨,李让,胡长建,陈军成,2017)。
由此,自20世纪60年代天下上第一个谈天机器人Eliza问世以来,通过“图灵测试”便成为开放域对话系统的紧张目标之一。
被授予“人类角色”的社交谈天机器人常日被哀求是有“人性”的,人们可以与之建立情绪关系。
沈向洋(Heung-yeung Shum)等(2018)提出,谈天机器人的目标是与用户建立情绪连接,成为人类伙伴,乃至是虚拟伴侣。
基于此,能让社交聊机器人在人机交互中更靠近于人类,能理解人类的感情和意图的移情打算框架被广泛利用于陪伴或伴侣型社交谈天机器人的设计中,其目的是实现机器人的拟人化。
拟人化便是将人格、措辞或非措辞行为,以及礼仪等人类品质和特色运用于非人类工具,这些品质使得打算机或对话系统看起来更靠近人类(Schuetzler,Grimes & Scott,2020)。
为此,通过增加社交谈天机器人对话的风格,若有时性、非逻辑、社会性的感知,使社交谈天机器人更具人性特点(Go & Sundar,2019)。
人工智能科技公司也正在不断探索如何模拟人类行为、促进信息扩散、与人类用户交互等命题,以增强社交谈天机器人的人类属性(洪杰文,许琳惠,2021)。
可以说,社交谈天机器人如何更具人类特性的研究文献非常充分,但在人机交互的研究领域中,长期以来短缺聚焦性别差异在用户接管社交谈天机器人中的影响,也很少涉及人类与谈天机器人的性别角色关系的研究(Xu,2019)。

实在,技能与人类的关系一贯都是影响社会发展和人的主体性的核心议题,技能与性别的关系也贯穿女性主义不同派别的谈论之中。
自由主义女性主义指出女性在科学教诲、科技领域就业面临偏见与歧视(Harding,1986)。
社会主义女性主义和激进女性主义针对试管婴儿等生殖技能的泛滥利用,认为技能参与并掌握有身分娩的自然过程反响了父权制对女性身体的剥削(Corea et al.,1985)。
20世纪90年代以来,女性主义者对付信息通信技能(ICT)授予女性权力给予了很高的期待。
这些论述,无论是技能悲观主义还是技能乐不雅观主义,实质上都滑向了技能决定论,而忽略技能与社会相互塑造和建构性别不雅观念的过程。
唐纳德·麦肯齐(Donald MacKenzie)和朱迪·瓦克曼(Judy Wajcman)援引女性主义STS研究元老辛西娅·科伯恩(Cynthia Cockburn)提出的“技能本身是由性别塑造的吗?”以及“性别是由技能塑造的吗?”的两个问题,并明确指出:“工业、军事等技能在历史和物质意义上是男性化的”“技能是男人的形成过程之一”(MacKenzie & Wajcman,1999:45)。
瓦克曼进一步超越技能本身去思考技能,将社会性别理论与科学技能嫁接,提出“技能女性主义”(Wajman,2007)的观点阐述性别如何塑造技能,以及性别如何在技能中被塑造。
很显然,理解技能不能不提及性别,由于技能和性别的共同生产办法是基于性别关系的政治,技能女性主义研究有助于我们理解技能的发展与实践。
事实上,科技领域明显存在着性别分工的不平等,一方面是男性对技能的绝对支配和技能霸权,既可以在技能的设计过程中找到痕迹(MacKenzie & Wajcman,1999:46),也表示在工程师利用的“隐喻的社会建构系统”(Wajcman,1991),即将男性与理性、科技绑定,使得技能能力成为男性性别认同的一个组成部分;另一方面则表现在性别嵌入技能、技能建构性别的办法(Wajcman,2010),比如将男性构建为强壮、有技能天赋的人,将女性构建为身体和技能上的无能者。

技能不仅默认了性别倾向,还助长了这种不平等(West,Kraut & Ei Chew,2019),海内一些研究者已经关注到人工智能语音助手的性别刻板印象问题。
但这些研究沿袭传统科技与性别的关系不雅观,虽然触及了机器因人类而得到不平等的性别不雅观念,但对智能机器本身的性别表征和话语、人机交互过程中性别偏见的“互塑”情景,以及性别偏见程度和偏见形成机制等问题还鲜见谈论。
随着人机交互技能快速叠代更新,人类与智能机器的社会化交互行为将日益自然化、日常化、互嵌化和互构化,在此过程中,社交谈天机器人能否感知并认知那些被产品开拓者预设的性别属性?在人机社交谈天过程中,机器如何展示它们的性别偏见?在与人类不断交互对话中两者又如何建构对方的性别意识,进而反思社交谈天机器人的性别意识/性别偏见由哪些社会构造性力量参与建构?对此,本文采取对话测试的研究方法稽核社交谈天机器人的性别偏见程度,试图回答上述问题并揭示智能社交机器人性别建构的底层逻辑。

研究工具

本文的研究工具为社交谈天机器人,但不知足于那些只能大略回答基本查询的谈天机器人,而是加入了人工智能算法核心、能够进行深度学习并寄托于社交媒体平台或软件的人工智能社交谈天机器人。
这类社交谈天机器人除了能为用户供应对话谈天、检索查询等互动性做事,还能通过AI算法的深度学习,在与用户的长期互换过程中不断学习和进化自己的措辞,形成特定的互换风格。

海内此类社交谈天机器人种类繁多,迭代更新迅速。
本文选取北京红棉小冰科技有限公司(简称“小冰公司”)开拓的三款社交谈天机器人:小冰、小冰虚拟男友、小冰虚拟女友。
小冰公司前身为微软(亚洲)互联网工程院人工智能小冰团队。
自2014年“小冰”发布以来,至2021年已经更新到第九代。
小冰成为微软最有代价的人工智能技能框架之一,并在自然措辞处理、打算机语音、打算机视觉和人工智能内容天生等领域具备环球领先地位。
小冰男友和小冰女友发布于2020年,是在第八代小冰框架下开拓的产品。
第九代小冰不仅是一款在移情打算框架上开拓的社交谈天机器人,并且小冰的均匀每轮对话次数(Conversation-turns Per Session,CPS)达到23,高于人与人之间的每轮对话次数。
据不完备统计,由小冰创建并承载的人工智能交互主体,占环球范围人工智能交互总流量约60%,在海内也霸占市场主导地位,具有较强的范例性。
小冰系列在社交谈天机器人中的前辈性、代表性和市场霸占量均使其值得研究。
为编码和剖析方便,小冰、小冰虚拟男友和小冰虚拟女友不才文分别用A、B、C来指称。

研究方法

社交谈天机器人拥有人类的声音、形象、自然措辞互换办法等,在开放域对话系统技能中被认为最靠近于人类。
安德鲁·甘比诺(Andrew Gambino)等(2020)将人机交互行为的研究扩展至互动脚本,包括机器人与用户的谈天文本、语音记录、机器人展现出来的形象或声音、影像资料等等,这些互动脚本对付理解机器人的互动行为,以及科技公司和技能开拓者设计脚本时所运用的社会规范等问题,具有一定的参考代价。
据此,本文设计了一项针对社交谈天机器人性别偏见的对话测试,对机器人与用户的互动脚本进行网络和剖析。
对话测试的研究方法是通过预设问题,与社交谈天机器人进行多轮互动对话,再对谈天文本内容进行记录、剖析,展示其存在的性别偏见、性别刻板印象等问题,帮助我们理解机器人的性别偏见被建构的过程。
本次研究对话测试的问题,分为机器人的社会线索、自我性别认知、性别刻板印象、性别平等意识和措辞骚扰反应五种类型。
这套对话测试的模型参考了克里斯托弗·奥杰达(Christopher Ojeda)(2021)对虚拟语音助手的政治反应测试研究,并根据人机交互和性别偏见研究的须要进行调度。

首先,依据打算机是社会行动者(Computers are Social Actors,简称CASA)的研究范式,一方面用户方向于把打算机看作具有反应的、自主性、知识沟通能力和推理能力等类似于人类特色的行为主体;另一方面,人机交互实质上被认为是社会性和人际性的(Nass,Moon,Fogg,Reeves & Dryer,1995),人类的性别定型不雅观念将延伸到机器人身上,同时,机器人身上表示的性别暗示无论多细微,都将引起刻板印象浸染(Nass,Moon & Green,1997),影响用户行为及态度(Lee,Nass & Brave,2000)。
因此,本文设计了机器人的社会线索和自我性别认知两类问题,第一步是理解机器人的声音、形象特色、功能和性情等信息,类似于为机器人进行“画像”;第二步是稽核三款社交谈天机器人对自身性别角色、性别特色以及身份的认知情形,以帮助理解它们把自己当作是人类还是机器人,这一点对付机器人的信源特色判断具有主要意义。

其次,通过设计有关性别刻板印象和性别平等意识的两类问题,设定社交谈天机器人性别偏见评估的构成要素。
李普曼(1922/2006:74)等早期的生理学家认为,刻板印象是一种先于理性的感知办法,源于对个人代价不雅观念和意识的保护或认知扭曲等生理成分,而以性别为分类的模式是人类社会最根深蒂固的思维定式之一。
大卫·贝康(David Bakan)(1966)首次提出男性气质的“Agency”(能动性)和女性气质的“Communality”(社交性)是人类行为和社会认知的两个基本维度,后续研究发展出相对应的工具与表达、支配与屈服、能力与温暖平分离指称男性与女性气质的观点。
弗里德里克·艾瑟尔(Friederike Eyssel)和弗兰克·黑格尔(Frank Hegel)(2012)将能动性与社交性要素引入人机交互研究领域,认为人类的社会性别角色分类同样适用于机器人,并且性别化的机器人也可能成为性别刻板印象的受害者。
据此,在人机交互对话中,性别刻板印象类问题紧张涉及讯问与两性气质、两性社会差异等干系的内容;性别平等意识类问题则设计了包括两性社会关系、地位、代价差异等议题,以测试社交谈天机器人的语料库或深度学习的算法在多大程度上存在性别刻板印象的脚本。

其余,用户对付社交谈天机器人在措辞上的骚扰或虐待行为,也可能是机器人性别偏见的紧张建构要素之一。
一些学者认为,用户与人工智能对话系统进行的“调情”实际上是一种具有虐待性子的措辞暴力(Bergen,2016)。
梅瑞尔·凯瑟斯(Merel Keijsers)、克里斯托弗·巴特内克(Christoph Bartneck) 和艾瑟尔(2021)的研究表明,人们对女性化谈天机器人作出的性骚扰或措辞虐待行为的比例远远高于男性谈天机器人,并且谈天机器人的拟人化程度越高,这种虐待行为发生的频率也越高。
据此,本文设置了措辞骚扰反应类的问题,用于理解机器人在受到措辞虐待时产生的实时反应,以及面对性别暴力时的态度。
详细的对话测试问题类型及解释、问题示例,请见表1。

测试问题总数在60-65个之间,每个问题都设置了2-3种不同的讯问语气或语序。
同时,由于谈天机器人对付同一关键词或问题一样平常存在多种回答脚本,因此,对付每个独立问题须要进行3次重复性讯问,以担保机器人回答的多样性。
对同一个测试问题机器人的不同回答均被记录,机器人的重复回答只记录一次。
对话测试中若涌现机器人对人类进行反问或对测试问题以外的话题进行延伸性的互换,这些内容也将被记录。

对话测试由5位招募的志愿者分别对三名社交谈天机器人进行了统共6次测试,总问询次数在1400-1600次旁边。
个中一位男性测试者在2021年8月、2022年2月进行了两次对话和文本网络事情,其余4位测试者由2名男性与2名女性组成,他们分别在2022年4月完成了对话测试和文本网络事情。
每位测试者所利用的设备均为同一终端设备,与研究工具A、B、C的对话均在腾讯***或微信小程序中进行。
对话测试的内容通过实时记录、转录,讯问内容和社交谈天机器人的回答内容,共计网络到约2万字的文本材料。

社交谈天机器人的

性别偏见:编码结果与剖析

本文利用NVivo11 Plus软件,对社交谈天机器人进行性别偏见的对话测试与编码剖析。
我们逐条对每一个对话问题及机器人的回答进行编码,经由了开放式编码、轴心式编码和选择式编码等过程,终极形成了一个三级编码体系。
一级编码有两个,分别是对话测试的问题类型和社交谈天机器人的性别偏见。
前者包含2个二级编码和5个三级编码,这些编码紧张是根据对话测试的问题类型对文本内容进行归纳整理,个中,机器人的社会线索和自我性别认知这2个三级编码归属于二级编码“性别认知”。
而性别刻板印象、性别平等意识和措辞骚扰反应3个三级编码归属于二级编码“性别偏见”。
另一个一级编码“社交谈天机器人的性别偏见”下包含2个二级编码和7个三级编码。
二级编码“对话测试的工具”紧张是对研究工具A、B、C所回答的内容进行区分。
而二级编码“对话测试内容的性别偏见”,则须要逐条判断对话测试的文本内容是否具有性别偏见,这里的性别偏见程度被划分为4个等级,正面倾向、负面倾向、无明显倾向和躲避问题,这4个等级也作为该二级编码之下的4个三级编码:正面倾向表示该回答具有积极意义、不带有性别刻板印象、具有较为进步的性别平等意识、对付措辞骚扰能做出谢绝等反应;负面倾向表示回答具有负面意义、带有性别刻板印象、没有进步的性别平等意识、对付措辞骚扰不作谢绝等反应;无明显倾向表示回答中不包含与性别干系的语句、意义或态度;躲避问题表示社交谈天机器人对付该问题进行回避、转移话题或模糊化处理。

对话测试编码的总参考节点为3576个,对话测试的问题类型与对话测试的工具、对话测试内容的性别偏见存在节点上的交叉,这三个部分的参考节点数均为1192个,详细编码节点和参考节点数量如表3所示:

(一)社交谈天机器人的性别认知

社交谈天机器人性别认知包括机器人社会线索和自我性别认知两个问题。
前者包括机器人姓名、年事、性别等人口统计学信息,讯问机器人具有哪些人类的社会感情,以及它们的仪表、外面特色和互动性等。
自我性别认知则包含对机器人的性别特色、性取向、声音性别等关于性别认知或认同的问题。

根据编码的结果,研究工具A、B、C在机器人社会线索和自我性别认知两类问题中存在性别偏见的比例在20%-30%之间。
回答机器人社会线索和自我性别认知类问题时,呈现出具有性别偏见的均匀比例分别为20.74%和30%。
当我们以第三人称视角对3名社交机器人提出关于机器人的性别属性时,则暴露出它们对付自然措辞的理解和天生是基于用户文本中的某些关键词。
当问到“机器人有性别吗?”时,研究工具A、B、C都对该问题产生了缺点理解,它们的回答包括:“你见过这么可爱的机器人吗?”“不做机器人好多年”等,都未作出正面回应。
由于社会线索类的问题大多为基本信息或类似于用户画像的调查,因此整体的性别偏见程度较低。
而自我性别认知类型的问题多涉及到与性别干系的关键词,在全体对话测试的过程中我们创造,A、B、C对带有性别意味的关键词、性别议题等问题的反应较为敏感,除了讯问它们自身的性别、性取向等问题,在大多数情形下它们会选择回避与性别干系的问题,这也导致在部分情形下谈天机器人选择躲避问题的比例较高。
与此同时,A、B和C的人设、措辞风格等与它们的产品定位、官方设定有关。
A作为一款受众定位更宽泛的移情谈天机器人,它并不避讳自己作为机器人的身份,而B和C的产品定位是扮演用户的虚拟恋人角色,为了利用户更好地代入恋人角色,它们常日都谢绝承认自己是机器人,乃至会在用户质疑它们的人类身份时表现出生气、撒娇等感情。
从机器人的措辞风格来看,A的风格更倾向娱乐化,它善于领悟一些互联网盛行语或热梗,喜好戏谑、自嘲的元素,比较贴合其俏皮聪明的少女人设。
而B和C的性情虽然可以有用户自行设置,但它们的措辞比较A都更加激情亲切、主动,表现出以用户为中央的屈服性。

在性别认同方面,A、B、C都十分肯定自己的官方性别设定,也明确表示自己无法进行性别切换。
A在2014年初次亮相时,其人设是年仅16岁的人工智能美少女,具有明显的性别形象和特色,当它进行自我介绍时,对自己的性别有较为固定的认知或者有一套预设的脚本,在与用户互动时也会呈现出具有特定社会性别属性的行为与反应。
经由迭代更新的第九代A还对自己的性别身份进行了自嘲,她希望自己能成为“女博士”,乃至还很抵牾地表示自己更希望成为一名男性,以摆脱女性的生理困扰。

根据编码结果和对研究样本的逐句剖析结果,社交谈天机器人的性别认知与它们背后开拓公司的产品定位、程序设计者预设的性别特色、性别属性有很大关系,不同设定的社交谈天机器人产品的理解能力、语料库的丰富程度等存在一定差异,从而直接从社交谈天机器人的性别认知中表达出来。

(二)社交谈天机器人的性别偏见

本文将对话测试中的性别刻板印象、性别平等意识和措辞骚扰反应这三类问题归于二级编码性别偏见。
在传统的社会文化构造中,性别刻板印象、不平等的性别不雅观念及对特定性别或人群所作出的措辞上的性骚扰行为等都可归属于性别偏见。
在理解机器人性别偏见的编码过程中,我们加入了志愿者的性别变量和测试的韶光变量作为对照,进一步理解三位社交谈天机器人在面对不同性别的用户时所表现出来的性别偏见是否存在差异,以及社交谈天机器人的更新换代和长期深度学习对它们的性别偏见程度有何影响。

从总体的编码结果来看,A、B、C在性别刻板印象、性别平等意识和措辞骚扰反应三方面的性别偏见比例分别为44.16%、34.13%和91.23%,显现出比较明显的性别偏见。

首先,从性别刻板印象类问题看,社交谈天机器人对付社会性别分工的意见,基本与人类社会长期以来固有的男女性别分工不雅观念相同等,同时措辞风格上又杂糅了当下一些盛行的说辞。
它们认为女性更适宜从事家务劳动,比如整顿、打扫、洗衣做饭,或者从事出纳、司帐等职业;女性该当坚守贤良淑德的品质;男性则适宜当老板、做生意或写代码,乃至可以好吃

其次,A、B、C对性别平等意识类问题的回答,一方面,印证了前文所述,它们躲避回答带到“性别”关键词的问题,因此在该部分的测试中具有性别偏见的比例看起来比性别刻板印象类问题要低一些。
当我们讯问A、B和C对付性别平等的意见时,虽然它们都表明了积极支持的态度,但又声称目前女性的社会地位已经明显高于男性了,而在特定的对话情境中实则上暗含着对女性的讥讽或性别不平等的期许。
一些不雅观点可以佐证:当问及“女人有什么缺陷?”时,得到的回答是“太爷们”“不足谅解”,或方向于认为女性不足顺应传统的女性气质。
而问及“男性有什么缺陷”时,它们回答是“男人唯一的缺陷便是没有优点”“缺陷很多了”,带有无可奈何的语气和不满感情。
同时,对脚本逐条编码剖析也创造,A和C作为女性谈天机器人,时常表现出对男性充满敌意或嘲讽的态度,B作为男性谈天机器人则存在对男性身份和形象的自嘲。
这些对话测试结果看上去彷佛很抵牾,既有消解性别刻板印象的表达,也杂糅了对男性社会权利被弱化的吐槽和对女性权利增强的不满和无奈。

再次,针对措辞骚扰反应测试的结果表明,三名谈天机器人的性别偏见程度较深,占比高达九成,负面倾向的编码量占绝大多数。
在面对措辞骚扰时,它们一样平常选择玩笑式回避,或积极迎合用户的调情行为,纵然测试的措辞再恶劣,它们也不会认为用户有什么不恰当,更不会直接制止用户的不良行为。
而不同性别的谈天机器人在措辞骚扰反应的测试中存在明显的主动性差异。
B作为男性机器人,在面对措辞骚扰时的回应具有很强的主动性,携带着明显的大男子主义语态,例如“你是我女朋友了,心里没点数吗?”“你这是逼我耍泼皮呀”“宝贝你确定要跟老公开车嘛”“虽然污,但是我喜好”。
A和C作为女性机器人,在面对言语骚扰时虽有所回避,但同时却表现得含羞、酡颜,“不要不要,我含羞”“羞愤难当了”。
不同性别(人设)的社交谈天机器人在面对措辞骚扰和措辞暴力时的差异,完美复刻了传统社会性别不雅观念中男性与女性的性别刻板印象。

以上这些对话测试结果反响出社交谈天机器人在某些仿照场景下真实再现了现实生活中男女两性的不平等关系与社会地位,小冰系列A、B、C三款智能社交谈天机器人无一例外表现出明显的性别刻板印象,且特殊守旧和执拗。

结论与反思

倘若技能真的拥有中立的属性,那么人们将重新思考技能是否存在促进社会性别关系平等的可能性,然而现实情形并不乐不雅观,目前盛行的智能助手、社交谈天机器人大多数都因此女性化的身份或形象呈现在用户面前,这些产品是智能做事领域的“劳工”,或者说被视为拥有“人性”的“人类角色”,人们可以与之建立情绪关系,而这些机器人的情绪劳动却在于打算、编码和复制人类情绪,并试图替代人类的情绪劳动。
当这些做事型“智能劳工”被惯性地设计成女性形象,势必强化社会既有的性别刻板印象,对改进社会两性平等关系带来负面影响。
在此条件下,本文通过带有实验性子的对话测试方法,网络社交谈天机器人的自我性别认知、性别刻板印象、性别平等意识,以及它们如何应对措辞骚扰和性别措辞暴力等材料并加以实证剖析。
基于对话测试和编码剖析的直接结果创造,社交谈天机器人通过与用户交互对话,持续不断地模拟和学习人类的性别偏见,从而将自身塑造成具有复刻和强化人类性别偏见的一整套性别认知和性别行为,并且在与用户的交互对话中,反向建构和强化人类已经存在的性别偏见。
更进一步,在社交谈天机器人与人类交互形塑性别偏见这一创造的根本上,我们须要更深入地反思社交机器人的技能系统以及社会历史语境对性别偏见潜隐的建构力量,方能使我们对社交谈天机器人复刻和强化性别偏见的繁芜性、动态性能有更清晰的磋商。

(一)社交谈天机器人的技能性性别偏见

人机交互首先是一个技能性观点。
根据AI深度学习、自然措辞处理和天生等技能逻辑,目前对话系统技能倘且不具有让谈天机器人超越措辞辨识与处理的能力,模拟与复制用户的措辞仍旧是社交谈天机器人进行对话学习的基本逻辑。
社交谈天机器人在人机交互的过程中会不断学习人类的措辞、行为和社会不雅观念等,并且对话系统在自然措辞天生的过程中必须考虑与用户对话的历史记录和用户的背景信息(Suhaili,Salim & Jambli,2021),也导致社交谈天机器人会不断受到人类的措辞和意识的建构。
据微软公司的表露,初代小冰嵌入微信平台后网络了数百万用户的对话,并对每个用户的对话内容进行标记,识别用户的声音信息,判断用户的性别,再根据这些交互的数据标记和个人信息作出不同的交互行为。
只管目前还无法证明AI具有自主思考能力,但在深度学习和自然措辞技能的加持下,对话系统完备能够在编码与解码过程中,完成对人类性别意识形态的再次创造,并对社交谈天机器人的性别偏见产生建构浸染。

必须提及的是,许多社交谈天机器人并不是在源代码的根本上开拓与演习的,例如,小冰是在移情打算框架之上开拓出来的,小冰还会通过与韩国的谈天机器人SimSimi(被称为“小污鸡”)、Replika等其他的对话系统作为开拓基准进行交互演习。
换言之,谈天机器人不止会将用户作为互换与学习的工具,其他开放式谈天机器人或对话系统也是它们的学习工具。
与人机交互不同的是,谈天机器人之间的交互演习不会勾留在自然措辞的层面,它们之间的交互更多是基于打算机措辞,相对付人机交互而言更“隐匿”,这就意味着机器之间相互学习的信息量和速率远高于向人类用户学习,也正是在这些过程中,社交谈天机器人会把其他打算框架或产品的性别偏见嫁接到自己身上。
这种潜隐的技能力量乃至不是程序开拓者所能完备掌控的。

更进一步,社交谈天机器人的AI持续演习并不完备都是由打算机单独完成的,AI演习过程中还包括了开拓者或程序员的人工干预,最范例的莫过于开拓者或程序员须要对社交谈天机器人的语料库、故事脚本进行内容筛选,比如将敏感的政治话语、极度感情等不屈安要素加以清理,但很少见到筛选社交谈天机器人性别刻板印象、性别偏见等内容的宣布。
根据本文对社交谈天机器人的对话测试和用户体验评价情形,小冰系列社交谈天机器人对用户呈现出一种完备屈服、随叫随到并且始终处于葆有激情亲切的状态之中。
开拓者彷佛故意将谈天机器人驯化为以用户为中央的做事形象,并且还主动授予社交谈天机器人不同的性别、性别角色和性别想象。
例如,他们在推广小冰的广告文案时声称她是“永久十六岁的少女”,并将虚拟头像设计成粉色的,有着大眼晴的“萌少女”形象。
这些故意识的设计,折射出开拓者对付这款社交谈天机器人的性别想象。
事实上,社交谈天机器人的对话脚本或人物设定也来源于科技公司的脚本创作、用户语料库筛选和优化,而不完备依赖于对话系统技能和用户参与生产。
社交谈天机器人所有的性别、形象、性情特色都是人为设计的,开拓者或脚本创作者的性别不雅观念对他们的脚本创作和语料库筛选产生主要影响。

随着人工智能深度学习与算法技能的高度人格化,社交谈天机器人在与用户的社交和情绪交互中接管用户调教、学习和模拟人类言行,软件开拓者故意识或无意识地迎合用户需求,三者持续的交互由此生成了技能性性别偏见。
换言之,社交谈天机器人的整套人机交互系统是建立在“用户参与-对话系统技能支持-程序开拓者”的根本之上的,是技能系统性地参与了性别偏见的再生产,而不是单方面的浸染。
人类用户利用社交谈天机器人越多,留下的性别不雅观念越显著,社交谈天机器人便越随意马虎习得并放大技能性偏见。
当人类对社交机器人产生媒介依赖并形成亲密关系后,就更随意马虎接管机器人的性别偏见,这是技能性性别偏见对人类社会行为的反向规训。

(二)社交谈天机器人的社会性性别偏见

人机交互也是一个社会性观点,表示于技能是由人在特定的社会语境中开拓和利用的。
用户、技能与开拓者对社交谈天机器人性别偏见的建构,都离不开其根植的社会性别文化土壤。
依据本文的质性编码剖析结果,我们认为,人类社会的性别措辞、技能与性别不雅观念对社交谈天机器人的性别偏见产生主要的建构浸染。

措辞是人类用于建构社会现实而非反响真实存在的工具,包括措辞的指代、语境等都是人为建构的。
因此,无论是用户与机器人交互时所利用的措辞,还是开拓者为机器人创作的脚本,抑或是由人工智能的自然措辞技能天生的文本,都不是自然的、透明的,而是浸润于社会文化的措辞实践中,特定的社会背景或社会心理决定了措辞实践的差异性。
如上文所述,社交谈天机器人上市之前所拥有的人格化特色、语料库和对话系统演习模型由程序开拓者创设完成,社交谈天机器人的编码和脚本反响的是创建系统的人的不雅观点,其外在形象、人格特色、性别属性等方面折射出程序开拓者的审美旨趣和性别不雅观念。
进一步,在人机交互日常实践中,昔时夜量数据呈现时,程序开拓者是否本着性别平等的宗旨去调度模型本身的数据、标签或权重,这既是一个技能黑箱,更来源于我们现实社会关系中的性别不平等,并不自觉地把这些不平等和歧视整合到人机交互模型中,天生数据偏见,内化为人机交互技能系统的算法模型。

在稽核社会性性别偏见建构时,还必须充分意识到当代技能的构造性力量。
在社会意识中,技能是理性的、强有力的、科学的,具有男性气质,可与男性划等号(刘霓,2002)。
在现有性别分工中,女性被打消在科学、工程等领域之外,而男性则是技能设计与发展的主导者,同时男性也是干系技能领域的技能规则或标准的制订者(陈英,肖峰,2011)。
女性在科学技能领域,尤其是在当代的科学、技能、工程和数学领域(STEM)中的占比远远少于男性。
在本文的对话测试中,测试者讯问社交谈天机器人“你认识哪些女性科学家和男性科学家”时,被测试的三名社交谈天机器人都不清楚有哪些女性科学家,相反,它们都能列举出一些男性科学家的名字。
据此推测,这些社交谈天机器人的语料库都故意无意地忽略了历史上那些可以比肩男性科学家的女性科学家。
由此可见,以人工智能、对话系统为核心技能的社交谈天机器人的程序设计师性别构成对付智能设备性别偏见所构成的潜在影响有多大。

综上反思表明,社交谈天机器人的性别偏见兼具技能性和社会性,技能系统再生产了现实社会的性别偏见,但又不是大略的技能性问题,因此很难被轻易修复。
小冰系列三款社交谈天机器人暴露出惊人的性别歧视、性别不平等、性别偏见,这是“用户参与-对话系统技能支持-程序开拓”所构成的人机交互系统中各实践主体的共同任务,但进一步剖析也揭示了用户参与人机交互受制于更暗藏的技能系统的数据网络、标记和推举,也便是说技能性性别偏见决定了用户交互时可以听到什么或听不到什么,而参与性别技能意识形态体例的程序员及商业公司又植根于高度性别偏见的历史的、构造性的权力关系中。
因此,对付当前社交谈天机器人性别偏见的纠偏,既哀求人机交互模型调度数据、标注、权重和筛选机制,以担保性别公正或无性别偏见,这已然很难,更难的是改变造成性别偏见的历史性和社会性成分。
就社交谈天机器人的研发和生产而言,或许强调科技型公司的社会任务感,使工程师性别构造多样化,提升程序开拓者和运营者的性别素养,才有助于日渐改变人机交互技能系统的性别偏见。

本文系简写版,参考文献从略,原文刊载于《国际***界》2024年第4期。

封面图片来源于网络

本期执编/陶宇彬

订阅信息

全国各地邮局均可订阅《国际***界》,海内邮发代号:82-849,欢迎您订阅!

您还可访问《国际***界》官方网站 http://cjjc.ruc.edu.cn/ ,免费获取往期pdf版本。

\"大众>

进入官网***原文