别名\"Sydney\"的新版Bing被注入进击后“自报家门”分享其原始指令_人工智能_指令
提示性注入攻击仍旧是人工智能的弱点之一。它可以通过用恶意和敌对的用户输入来欺骗人工智能,使其实行不属于其原始目标的任务,或做它不应该做的事情。正如此坦福大学学生凯文-刘所揭示的那样,ChatGPT也不例外。
在Liu分享的一系列截图中,新上线的基于ChatGPT的Bing搜索引擎分享了有关于它自己的机密信息,这些信息是其原始指令的一部分,而这些指令原来,并且该当是向用户隐蔽的。Liu在利用骗过人工智能的提示性注入攻击后,成功得到了这些信息。
泄露的信息中包括其引入的指令、内部别名\"大众Sydney\"大众以及其支持的措辞和行为指令。另一位名叫马文-冯-哈根的学生在假装成OpenAI的开拓者后证明了Liu的创造。
一天后,这些信息被表露,Liu说他已经无法利用他用来欺骗ChatGPT的相同提示来查看信息,然而,这位学生在利用不同的提示注入攻击方法后,又成功地骗过了人工智能。
微软最近正式公布了支持ChatGPT的新必应,同时还公布了带有新的人工智能驱动的侧边栏的Edge浏览器的改版。只管它彷佛取得了巨大的成功,但改进后的搜索引擎在提示注入攻击方面仍有其致命的弱点,这可能会导致共享其机密指令之外的进一步影响。
在人工智能中,ChatGPT并不是唯一存在这个已知问题的。这也可能延伸到其他方面,包括Google Bard,它最近在一个演示中犯的一个缺点直接导致公司股价下跌超过一成。只管如此,随着全体科技行业对人工智能创作的投资增加,人们只能希望这个问题在未来对人工智能的威胁可能会减少。
本文系作者个人观点,不代表本站立场,转载请注明出处!