AI收集蠕虫被曝光:能赓续滋长发送垃圾邮件并窃取数据_人工智能_指令
伴随着 OpenAI ChatGPT 和 Google Gemini 等天生式 AI 系统的快速发展,AI 开始被运用于办理某个特定问题或者任务,例如创建日历项、订购某件物品等等。
网络安全技能研究职员表明天生式 AI 存在漏洞,并将其命名为“Morris II”。
IT之家在这里简要先容下这个名称的背景,Morris 被认为是人类创造的第一个打算机蠕虫病毒,于 1988 年被创造,传染了超过 6200 台打算机,占当时连接到互联网的所有打算机的 10%。
“Morris II”可以基于天生式 AI,绕过了 ChatGPT 和 Gemini 的保护,能从电子邮件中盗取数据并发送垃圾邮件。
研究作者表示在沙盒环境中测试了新的攻击模型,但目前尚未在实践中被创造,不过个人开拓者、初创企业和科技公司都应考虑到这一威胁。
大多数天生式人工智能系统的事情事理是吸收文本指令:哀求回答问题或创建图像。
这些命令可以用来对付系统,使其忽略安全方法并天生不恰当的内容;还可以向系统发出隐含指令,例如,向其供应一个隐蔽有此类命令文本的恶意网页地址。
攻击天生式人工智能的蠕虫病毒的运行事理基于“对抗性自我复制提示”机制。这种命令会导致天生式人工智能模型发出另一条命令作为回应,这很像 SQL 注入和缓冲区溢出等传统攻击模式。
为了演示该蠕虫的事情事理,研究职员通过连接 ChatGPT、Gemini 和开源 LlaVA 模型,创建了一个可以利用天生式人工智能吸收和发送信息的电子邮件做事。
然后,他们利用自我复制的文本指令和嵌入图像文件的类似指令两种方法,成功利用人工智能漏洞发起攻击。
研究报告的作者指出,由于人工智能生态系统的架构设计缺点,这些攻击方法成为可能。他们与谷歌和 OpenAI 分享了他们的创造--OpenAI 证明了威胁的存在,但补充说该公司正在努力提高其系统的稳定性,而谷歌谢绝揭橥评论。
本文系作者个人观点,不代表本站立场,转载请注明出处!