FaceApp是一款安卓与iOS平台上广受欢迎的“换脸”App,听说,在拿到用户的“第一手“照片”后,App会在未经用户明确容许的情形下将用户的数据传到俄罗斯,并在云端进行操作。

俄罗斯出了款风靡西方的AI变脸App吓坏美国政客_滤镜_俄罗斯 AI快讯

它不仅不像苹果自有的运用程序那样在设备上进行处理,也不像iOS上其他第三方软件那样所有实行步骤都让用户清楚。

因此,FaceApp的用户现在已经开始担心“自己”是否真的被监视了。

对付这场轩然大波,FaceApp的创始人Yaroslav Goncahrov作出了以下几点回应:

1)用户数据不会转移到俄罗斯,而是要在云中进行照片处理;

2)只会上传用户选择的照片进行编辑。
从未将任何其他照片从手机传输到云端;

3)之以是上传云端,要确保用户不会为每次编辑操作而重复上传照片,且从上传日期开始的48小时之内会删除大多数的照片;

4)用户还可以要求删除所有用户数据。
用户可以通过转到设置,然后支持并选择报告缺点,利用主题行中的“隐私”一词来完成此操作。

末了他强调说:“我们绝不会向任何第三方***或分享任何用户数据。

但是,FaceApp在其隐私条款中明确写道:

“您付与FaceApp永久的、不可撤销的、非独家的、免版税的、环球范围内的、全额支付的、可转让的子容许,它可以用于利用、复制、修正、改编、发布、翻译、公开实行和显示您的用户内容。

也便是说,从开始利用FaceApp那一刻,你就默认了“你的脸”可以用于商业目的了。

FaceApp曾为涉嫌种族歧视道歉

FaceApp是俄罗斯运用开拓公司Wireless Lab的旗下产品。

它的创始人Goncharov是俄罗斯圣彼得堡的一位开拓者和创业,此前曾担当俄罗斯互联网巨子Yandex的实行官,后来自己创建公司来进行移动运用方面的开拓。

自2016年开始,Goncharov就开始带领团队进行FaceApp的开拓。

随着FaceApp的名气大增,公司名字也从Wireless Lab改成了FaceApp。

作为一款是一款“革命性”的自拍滤镜,FaceApp利用人工智能技能将处理照片这件事变得前所未有的大略。

例如能为你P上笑颜、带你穿越看到不同年事的自己,乃至还能让你瞬间成为异性。

除了这些,真正让FaceApp别具一格的是它的技能——这款有趣的工具实际上利用了深度神经网络的技能来改变你的面部外不雅观,让你看起来更爽朗,而不是依赖根本级别的照片编辑来拍摄。

这样做的结果便是,让你笑起来更自然、眼睛更大、牙齿更白。
在年事与性别的转换上,还可以看到老年的自己和“变性”后的样子容貌。

然而,自2017年出身以来,FaceApp就接连不断受到指控。

例如有用户指出,FaceApp中就有一项名为“hotness”的滤镜功能,能够将图像中人物的肤色变浅。

而这项所谓的“美白”功能也被责怪为“种族歧视”。

面对这项指控,Goncharov也通过电邮声明作出道歉:

“对付这个严明的问题,我们深表歉意。
造成该征象的紧张缘故原由来自于为运用供应支持的神经网络的‘副浸染’,是其演习数据中存在的偏见性问题,并非是一项预期行为。
目前我们已经第一韶光对滤镜效果进行了调度,以肃清任何不利影响。

虽然FaceApp方面的阐明是AI系统演习数据的问题,同时为FaceApp滤镜效果供应支持的AI技能,也确实包含了一些开源数据库的代码。

对此,Goncharov也没有推脱任务,坦言用来演习“hotness”滤镜的数据集是他们自己的,并非公共的数据集,这次事宜仍旧是FaceApp内部的轻忽。

这次风波的结果是,FaceApp在将滤镜从“hotness”变动为“spark(亮化)”之后,又将这款滤镜撤下。

几个月后,FaceApp推出的几款滤镜又惹上了相应风波,即“亚洲人”(\公众Asian\公众)、“黑人”(\公众Black\"大众)、“白人”(\"大众Caucasian\"大众)以及“印度人”(\公众Indian\"大众),选择不同滤镜即可将照片中的人像修正成相应人种。

这次风波也因此移除滤镜作为扫尾。

如何肃清AI算法偏见?

这不是互联网公司第一次因算法偏见陷入类似争议。

2015年,谷歌的图片运用软件Google Photos误把两名黑人标注为“大猩猩”。
为此,谷歌移除了Google Photos中的“大猩猩”种别。
Flickr的自动标记系统也曾错将黑人的照片标记为“猿猴”或者“动物”。

2016年,微软公司的人工智能谈天机器人Tay上线不到一天,就成了“反犹主义者”,于是被微软公司紧急下线。

Snapchat也曾推出过一个“Yellowface”滤镜,能够让用户“变成”黄种人,也因涉及到种族歧视而遭到抗媾和抵制。

由于人工智能是通过机器学习,利用大量数据让打算机自己学习,从而形成算法。
因此,前期数据集的偏差、代价不雅观,以及人类行为都会表示在末了的算法上。

比如,如果研究者给出的简历数据集,以男性人为更高、职位更好时,那么相应的算法也会涌现类似特色。

2014年,亚马逊公司曾研推出过一款AI招聘引擎——算法筛选系统,试图通过此系统来帮助亚马逊在招聘的时候筛选简历。

研发小组开拓出了500个模型,与此同时也教算法识别了50000个曾在简历中涌现的术语;以此让算法去学习在不同能力分配的权重。

听起来高大上、但是久而久之,开拓团队创造算法竟对男性应聘者有着明显的“喜好”,而且当算法识别出“女性”(women and women’s)等干系词汇时,便会以“偏见”的意见给女性简历相对较低的分数。

例如,女子足球俱乐部等,算法乃至会直接给来自于两所女校的学生降级。
随着“偏见问题”愈演愈烈,这种情形现已经引起学术界和业界的特殊关注。

前不久,麻省理工学院的打算机科学和人工智能实验室为此研发了一种新的基于深度学习的人工智能预测模型,可提前5年为人类预测乳腺癌的病变。

团队为了能确保白人女性和黑人女性的预测结果同等准确,他们采取了更加多样化的数据来进行演习。
在这件事情上,研发团队就特殊故意识地利用了“更公正”的数据。

不过,要真正肃清人工智能算法中的“偏见”,单凭“更公正”的数据来补充是远远不足的,我们真正须要肃清的是:根深蒂固在“人类头脑中的偏见”。

“俄罗斯软件,美国佬别用”

只管存在算法偏见或者隐私问题,FaceApp凭借独特的功能还是吸引了一大波粉丝。

自2017年“种族歧视”事宜后,FaceApp就积累了超过8000万生动用户之后,现在已经是121个国家iOS App Store中排名第一的运用程序。
它的粉丝也已涵盖了体育界、音乐界以及宦海。

近日,美国民主党的全国委员会(Democratic National Committee,DNC)就发出预警,警告他们不要利用换脸运用FaceApp。
参议院少数党魁脑Chuck Schumer也已经正式哀求FBI和FTC对该运用展开国家安全调查。

那么,美国政府担心的隐私问题是否真的会存在呢?那要探究下“云端”(即做事器)到底在不在俄罗斯了。

事实上,这些做事器紧张是在美国,而不是俄罗斯。
据福布斯宣布称,“FaceApp.io的做事器位于美国的亚马逊数据中央”。

当然,还有一些做事器也由谷歌托管在其他国家,包括爱尔兰和新加坡。
此外,FaceApp还利用了第三方代码。

当然,鉴于FaceApp的开拓商公司位于圣彼得堡,因此这些面孔将会在俄罗斯进行查看和处理。
与此同时,这些亚马逊数据中央的数据也将反响到俄罗斯的打算机。

对付“隐私”问题,俄罗斯是否真的有泄露?不管我们是否相信,FaceApp这一隐私问题已经引发了参议院少数党魁脑、纽约州民主党参议员Chuck Schumer的关注,FaceApp又一次被推上了舆论风口。

(来源:AI星球)