布特林周四呼吁更多的人关注“不友好的AI风险”问题,认为这是未来一两个世纪可能让人类脱轨的“最大事情”。

以太坊首创人警告:不友好的AI可能息灭人类风险跨越第三次世界大年夜战_人工智能_人类 绘影字幕

他写道:“在未来1-2个世纪里,不友好的AI风险仍旧可能是最大的事情,可能会严重阻碍人类登上星球。
强烈建议更多的人关注这个问题。

布特林分享了人工智能理论家兼作家埃利泽·尤德科夫斯基(Eliezer Yudkowsky)的一篇论文,该论文阐述了为什么当前的研究界没有采纳足够的方法来防止人工智能在未来可能引发的灾害。

当一名推特粉丝表示,第三次天下大战可能是当古人类面临的一个更大风险时,布特林表示不同意。
他说:“

不,第三次天下大战可能会杀去世10到20亿人(紧张是由于食品供应链中断),如果真的很糟糕的话,但它不会消灭人类。
一个糟糕的人工智能可能真的会永久地消灭人类。

本文源自金融界