我们来看看Genderify的一小部分“成绩单”:

用AI分析姓名识别男女Genderify为啥被骂到做事下线?_性别_女性 AI简讯

输入“Meghan Smith”,评估结果为“男性:39.60%,女性:60.40%”;

但输入“Dr.Meghan Smith”,评估就会变为:“男性:75.90%,女性:24.10%”。

其他名字加上“Dr”,也会让系统给出更倾向男性的结果。

有网友试着输入了一些单词或名人姓名,Genderify也表现得令人失落望:

比如输入“scientist”,评估结果为“男性:95.7%,女性:4.3%”;

输入“Oprah Winfrey”(美国著名脱口秀女主持),评估结果为“男性:78.3%,女性:21.7%”;

Genderify的首席运营官Arevik Gasparyan是一名女性,但系统连自家高管都不认得,给出了“男性:91.2%,女性:8.8%”的结果。

群众抗议感情之强烈,已经迫使Genderify彻底关闭了这项做事,网站现已脱机,其免费API也无法再访问。

一位代表通过电子邮件向媒体回应:“如果大家不想要,这样的结局大概是公正的。

只管类似的性别偏见常常涌如今机器学习中,但Genderify这种“不过大脑”的程度彷佛让该领域的许多专家感到惊异。
Meredith Whittaker是纽约大学 AI Now的联合创始人,专注研究AI对社会造成的影响,她的反应就非常范例:“科技圈的愚人节来了?这是一种滋扰科技与法律天下的生理战吗?”

为什么Genderify会引发大规模吐槽?就由于它根据某人的名字对其性别做出假设?并非如此。
业界指出,实在人类也会通过名字猜性别,有时也会在这个过程中犯缺点,这就须要理解人们的自我认同感,思考对方希望得到若何的称呼,才能降落搪突对方的可能。

Genderify的问题在于,它自动化了这些假设,显得太过“想当然”了,加深了这个过程中的性别刻板印象。
比如前文提到的,在名字前加Dr.的情形,意味着系统认为:如果你是年夜夫,那你大概率是个男人。

虽然创始人Arevik Gasparyan强调这是一个用于营销的数据剖析工具,但有不雅观点认为,它在特定的运用办法和地点下,会涌现潜在危害。

例如这项做事被集成到医疗谈天机器人中,它对用户性别的假设,可能会导致谈天机器人发出误导性的医疗建议。

用户们对产品的性别歧视色彩表示担忧,有提问称:“如果我选择了既不是男性也不是女性,你如何处理这个问题?你如何避免性别歧视?你是如何处理性别偏见的?”

对此,Gasparyan称,做事是基于“已经存在的姓名/性别数据库”,公司也“正在积极寻求办理办法,以改进跨性别者等群体的用户体验”,试图将姓名/用户名/电子邮件的观点与性别身份区分开来。

一位代表也通过电子邮件给出了较为详细的回应:

“我们明白,我们的模型永久不会供应空想的结果,算法须要显著改进。
为了让它更好地发挥浸染,我们非常期待LGBTQ等群体的反馈,以帮忙我们尽可能地改进性别剖析算法。
我们的目标是建立一个自学习的人工智能,它将不会像任何现有的办理方案那样带有偏见。

雷锋网编译,参考来源:

https://www.theverge.com/2020/7/29/21346310/ai-service-gender-verification-identification-genderify

https://baijiahao.baidu.com/s?id=1673625518588393349&wfr=spider&for=pc

雷锋网雷锋网雷锋网