人工智能也分“善恶”?科学家让AI互相“斗殴”结果惹人寻思_机械_体系
比赛由三个部分组成。 第一个寻衅是只是考试测验稠浊机器学习系统,使其无法正常事情。第二个寻衅将涉及到试图逼迫系统缺点地分类某些东西。第三个寻衅将涉及发展最强大的防御。比赛结果将在今年晚些时候的AI大会上公布。
机器学习,特殊是深度学习,正在迅速成为许多行业不可或缺的工具。 该技能涉及将数据运送到分外类型的打算机程序中,指定特定结果,并使机器开拓算法来实现结果。深度学习通过调度数字仿照的神经元构建的巨大的互连网络,来做到这一点。
长久以来,机器学习系统一贯可以被欺骗。 例如,垃圾邮件发送者可以通过识别过垃圾邮件滤器的算法来规避邮件过滤。
随着机器学习的遍及,这种攻击可能被用于获利或纯粹的恶作剧。例如,黑客可能躲避安全方法,以安装恶意软件。
Goodfellow表示:“打算机安全绝对是在转向机器学习。 “坏人将利用机器学习来自动化攻击,我们将利用机器学习来进行防御”。
在理论上,犯罪分子也可能让声音和脸部识别系统瘫痪,乃至张贴海报来欺骗自动驾驶汽车的视觉系统,导致系统崩溃。
Kaggle已经成为算法开拓的宝贵繁荣之地,也是有才华的数据科学家的温床。 该公司于3月份被Google收购,现在已成为Google Cloud平台的一部分。 Goodfellow和另一位Google Brain研究员Alexey Kurakin在收购之前就提出了这次大赛的想法。
Kaggle的联合创始人兼CTO Benjamin Hamner表示,他希望比赛能引起人们的关注。 “随着机器学习的利用越来越广泛,从对抗学习中理解问题和风险变得越来越主要,”他说。
公开竞赛的好处超过了任何宣扬新型攻击的风险,他补充说:“我们认为,这项研究最好是建立公开的,而不是闭门会议。”
【编译组出品】编辑:杨志芳
本文系作者个人观点,不代表本站立场,转载请注明出处!