美国麻省理工学院研究团队:部分人工智能系统已学会若何欺骗人类_人工智能_体系
据新华社北京5月12日电 人工智能系统是否会欺骗人类,一贯是各方都关心的问题。近期美国麻省理工学院一个研究团队称,部分人工智能系统已经学会如何欺骗人类,个中包括部分号称已被演习成乐于助人和老实的系统。该研究成果揭橥在美国细胞出版社旗下的《模式》杂志上。
文章第一作者、美国麻省理工学院人工智能安全领域博士后彼得·帕克和他的同事们剖析了一些文献,重点关注了人工智能系统传播虚假信息的办法——通过习得性欺骗,它们系统地学会了“操纵”他人。
研究职员创造的最引人瞩目的人工智能系统欺骗例子是元宇宙平台公司的“西塞罗”人工智能系统,它被设计在一个虚拟外交计策游戏中作为人类玩家的对手。只管元宇宙平台公司声称,“西塞罗”人工智能系统“在很大程度上是老实和乐于助人的”,并且在玩游戏时“从不故意背刺”它的人类盟友,但该公司揭橥的论文数据显示,该系统并没有公正地玩游戏。
“我们创造元宇宙平台公司的人工智能系统已经成为欺骗大师。”帕克说,“虽然元宇宙平台公司成功演习其人工智能系统在游戏中得胜——‘西塞罗’人工智能系统在玩家排行榜中排名前10%——但没能演习它老实地得胜。”
其他人工智能系统则具有在扑克游戏中矫揉造作的能力,或在计策游戏“星际争霸2”中为了击败对手而假装攻击的能力,以及为了在会谈游戏中占上风而歪曲偏好的能力等。
研究职员表示,虽然人工智能系统在游戏中作弊彷佛是无害的,但它可能会导致“欺骗性人工智能能力的打破”,并在未来演化成更高等的人工智能欺骗形式。
帕克说:“我们须要尽可能多的韶光,为未来人工智能产品和开源模型可能涌现的更高等欺骗做好准备。我们建议将欺骗性人工智能系统归类为高风险系统。”
编辑 刘佳妮
本文系作者个人观点,不代表本站立场,转载请注明出处!