制造虚假信息变得越来越随意马虎。
斯坦福大学互联网不雅观测站的Renee DiResta表示,在虚假信息方面,社交媒体将传播本钱降至零,天生式人工智能将天生本钱降至零。
像GPT4这样的大型措辞模型很随意马虎产生大量误导性的新闻或社交媒体帖子。

细思极恐的人工智能!信赖吗?这个视频完全由人工智能生成_人工智能_虚伪 科技快讯

人工智能可以产生的不仅仅是文本,利用人工智能克隆声音过去须要几分钟乃至几个小时的样本音频。
然而去年微软的研究职员推出了VALL-E,这是一种人工智能模型,它能从任何人短短3秒的语音片段中克隆出一个人的声音,然后让他说出任何给定的文本。

GPT-4背后的美国公司OpenAI开拓了一个类似的工具voice engine,它可以令人信服地从15秒的语音剪辑片段中克隆任何声音。
由于认识到"严重的风险,这在选举年尤其值得关注",因此该公司尚未发布这个工具。

同样来自0penAI的Sora可以根据文本提示制作出令人震荡的人工合成视频,这种合成视频的逼真程度完备能够以假乱真。
OpenAI还没有向"大众年夜众发布Sora,部分缘故原由是它可能被用来制造虚假信息。
除了供应诋毁或歪曲政治家的新方法外,人工智能工具还引发了对个性化虚假信息的忧虑。
这些虚假信息很可能被心术不正者利用,乃至有可能根据对个人偏好、偏见和担忧的理解,用虚假信息"精确锁定"个人。

人工智能就像一把双刃剑,须要国家出台干系政策规范其运用。