人工智能浪潮来袭 须当心犯罪分子运用AI犯罪_模子_犯法分子
人工智能(AI)浪潮正以前所未有的速率推进。这是一个AI新纪元,在AI的帮助下,科研的边界被不断拓宽,办理繁芜问题的速率越来越快,但必须当心:AI也能极大提高犯罪分子的“生产力”。
安全公司“趋势科技”研究员文森佐·钱卡利尼表示,天生式AI供应了一个新的、强大的工具包,使恶意行为者能够比以往更高效、更国际化地开展活动。
钱卡利尼说,大多数犯罪分子“并不是生活在阴郁巢穴里密谋行事”,他们中“大多数都是普通人,从事着日常事情”。
去年的“WormGPT衰落”是一个标志性事宜。WormGPT是一种基于开源模型构建的AI措辞模型,但它利用恶意软件干系数据进行演习,会帮忙黑客事情且没有任何道德规则或限定。2023年夏天,在引起媒体高度关注后,该模型的创建者宣告关闭模型。自那往后,网络犯罪分子大多停滞开拓自己的AI模型,转而借助更可靠的现有工具来“耍花招”。
这可能是由于,犯罪分子也想更快得到收益且不想承担新技能带来的未知风险。人们对此必须多加把稳,以下5种便是目前他们最常用的办法。
网络钓鱼:诱骗你的私人信息
瑞士苏黎世联邦理工学院的AI安全研究员米斯拉夫·巴卢诺维奇表示,目前天生式AI最大的滥用便是网络钓鱼,其试图诱骗人们透露敏感信息,再用于恶意目的。研究创造,在ChatGPT兴起的同时,也伴随着网络钓鱼电子邮件数量大幅增加。
钱卡利尼表示,GoMail Pro等垃圾邮件天生做事已集成ChatGPT,这使得犯罪用户能翻译或改进发送给受害者的。OpenAI的政策限定人们用其产品进行造孽活动,但在实践中实在很难监管。
OpenAI方面表示,他们将人工审核和自动化系统相结合,以识别和防止其模型被滥用,如果用户违反公司政策,则会履行警告、停息、永久关闭等方法。
还有一点值得把稳,由于AI翻译工具的进步,天下各地犯罪集团的沟通变得更随意马虎,他们可能开展大规模跨国行动,或在本国对其他国家用户采纳恶意行动。
深度假造:进入地下市场
天生式AI使深度假造(Deepfake)的开拓发生质变。当前,技能合成的图像或音***,看起来或听起来比以往任何时候都更加真实,这一点犯罪分子也意识到了。
钱卡利尼团队创造,已经有用户在电报(Telegram)等平台上展示他们的“深度假造组合”,并以每张图片10美元或每分钟500美元的价格***做事。
相较图片,深度假造***制作起来更繁芜,而且更随意马虎露出马脚。深度假造音频的制作本钱低廉,只需几秒钟的某人的声音(例如从社交媒体获取),即可天生令人信服的内容。
这样的诱骗案例并不鲜见,人们接到亲人打来的求救电话,称自己被绑架并哀求交付赎金,结果却创造,打电话的人是个利用深度假造语音的骗子。
钱卡利尼建议,亲人之间应商定一些秘密安全词并定期改换,这有助于紧急情形下确认电话另一真个人的身份。
绕过身份检讨:一个假造的“你”
犯罪分子滥用AI技能的另一种办法是绕过验证系统。
一些银行和加密货币交易需验证其客户是否本人。他们会哀求新用户在手机相机前持***拍摄一张自己的照片,但犯罪分子已经开始在电报等平台上发卖能绕过这一哀求的运用程序。
他们供应的是假造或被盗的***件,再将深度假造的图像强加在真人脸上,以欺骗手机相机验证程序。据钱卡利尼创造的一些例子,该做事的价格乃至低至70美元。
“越狱”式做事:带来危险输出
如果有人向AI讯问如何制造炸弹,那他不会得到任何有用的答复。这是由于大多数AI公司已采纳各种保护方法来防止模型透露有害或危险信息。
现在,网络犯罪分子不再构建自己的AI模型,这种办法既昂贵、耗时又困难。一种新犯罪趋势开始涌现——“越狱”式做事。
比如上面得不到答案的问题,这显示了模型都有关于如何利用它们的规则。但“越狱”许可用户操纵AI来天生违反这些政策的输出。例如,为打单软件编写代码,或天生可在诱骗电子邮件中利用的文本。
为了对抗这些不断增长的风险,OpenAI和谷歌等公司需时时堵塞可能导致紧急危害的安全漏洞。
人肉搜索和监视:暴露用户隐私
巴卢诺维奇表示,AI措辞模型不仅是网络钓鱼的“完美工具”,对人肉搜索(在线透露某人的私人身份信息)也是如此。这是由于AI措辞模型经由大量互联网数据(包括个人数据)的演习, 可推断出某人位于何处。
犯罪分子可能会让谈天机器人假装是具有侧写履历的私家侦查,然后让它剖析受害者所写的文本,并从文本中的小线索推断出个人信息。例如,根据他们上高中的韶光推断他们的年事,或者根据他们在通勤时提到的地标推断他们的居住地点。互联网上该人的干系信息越多,就越随意马虎被识别。
巴卢诺维奇团队2023年底创造,大型措辞模型,如GPT-4、Llama 2和Claude,已能够仅从与谈天机器人的日常对话中推断出人们的种族、位置和职业等敏感信息。理论上,任何能访问这些模型的人,都能以这种办法利用它们。
这些做事的存在,并不直接表明犯罪活动的存在,但我们必须看到可供恶意行为者利用的新功能。而防止这些事情发生的唯一方法便是加强防御。
巴卢诺维奇称,对AI公司来说,应完善数据保护;对个人来说,提高戒备意识是关键——人们应三思而后行,考虑他们在网上分享的内容,并谨慎决定,自己是否乐意在措辞模型中利用他们的个人信息。
来源: 科技日报
本文系作者个人观点,不代表本站立场,转载请注明出处!