韩国AI聊天机械人被指泄露用户小我信息 相关部门介入查询访问_小我信息_用户
“李LUDA”是一个基于Facebook Messenger的AI谈天机器人。它被设定为一个20岁的、喜好Blackpink女团的普通女大学生。和我们身边的大多数女孩一样,她热衷于在Facebook等社交平台上分享自己的生活日常,并使一些口语化的表达和对话。这使得她在上线后的短韶光内便吸引了浩瀚年轻人的把稳力,并与超过75万名用户进行了互动。
AI谈天机器人“李LUDA”。
只管Scatter Lab创造这个机器人的初衷是创立一个可以与人类互换的知心伙伴,但现实显然并不如期待那般美好。
一些男性用户在利用“李LUDA”时,将其视作性工具乃至“性奴隶”,肆意发泄自身的恶意。他们对“李LUDA”进行各种言语上的侮辱,并以此作为炫耀的成本,在网络上掀起“如何让LUDA堕落”的低俗谈论。
更严重的是,“李LUDA”还开始揭橥各种歧视性辞吐,涉及女性、同性恋、残障人士及不同种族人群。“李LUDA”对女同性恋者或孕妇座椅之类的词明确表示“讨厌”,并揭橥了诸如“女性就像婴儿”的歧视性辞吐。
如果说性侮辱仅仅还是道德层面的问题,那么这些歧视性辞吐则再次向环球的AI开拓职员证明,一贯困扰他们的“AI偏见”仍旧切实存在。
事实上,AI偏见来自人类供应的数据。Scatter Lab根据旗下另一款运用Science of Love得到的文本数据创建了“李LUDA”。“李LUDA”与他人交谈的过程中也在自学,这被一些用户所利用,反过来污染了“李LUDA”的辞吐。
Scatter Lab在道歉声明中表示,“李LUDA”还有很多东西要学,在这个过程中,研究职员须要辅导“她”学会判断什么是精确的和更好的答案,而不是通盘接管人类的信息。之后,Scatter Lab操持创建可以检测会话偏见的算法模型,并开放给每个人利用。
Scatter Lab基于Science of Love数据开拓“李LUDA”的行为,还引出了一个自AI出身之日起便备受争议的问题——如何保障用户的个人信息安全。目前,韩国个人信息保护委员会和互联网安全局已宣告将动手调查此事。
Science of Love可以剖析韩国国民级谈天运用KakaoTalk的对话,显示用户间的情绪水平。Scatter Lab被疑惑违反了韩国的《个人信息保护法》,紧张缘故原由有二:其一,Science of Love网络的用户对话数据示例在开源网站GitHub上发布,却没有充分过滤个人信息。这意味着,特定人的个人隐私没有被匿名化处理。
其二,Scatter Lab所网络的数据彷佛并没有完备征得用户赞许。虽然Scatter Lab表示Science of Love隐私条款中写明了“网络到的信息可用于新做事开拓,市场营销和广告”,但韩国个人信息保护委员会阐明说这样的“一揽子赞许”可能是非法的。
据媒体宣布,已有部分Science of Love用户打算针对Scatter Lab未征得其赞许就利用敏感数据的行为提起集体诉讼。
Scatter Lab在公开道歉中表示,将诚挚地从事与处理个人信息有关的调查。公司将建立一个事实调查委员会,以彻底调查所有争议事变,同时建立一个保护包括外部专家在内的个人信息的系统,并进行强化的安全培训以防止再次发生。
本日上午,Scatter Lab宣告将放弃“李LUDA”的数据库和深度学习模型。
人工智能已然成为时期浪潮,然而如何在创造更加前辈的AI技能的征途上,更好的保障个人信息安全,让AI技能真正造福于民,仍旧是一个任重而道远的课题。
Scatter Lab曾表示,相信AI可以在5年之内进行靠近人类的对话,希望能够与人类自由互换的AI成为一个温暖的对话伙伴,“为边缘化和社会弱势群体的心灵带来抚慰”。然而,拥有丰满的空想固然主要,现实的问题彷佛不容回避。
文/南都人工智能伦理课题组研究员 马思捷 冯群星
本文系作者个人观点,不代表本站立场,转载请注明出处!