姚期智Hinton Bengio联名发文:18个月AI规模将扩大百倍得管管了_人类_风险
三位图灵奖得主Hinton、Bengio、姚期智,联名发文《在快速发展的时期管理AI风险》。
还有UC伯克利宋晓东、Pieter Abbeel,清华张亚勤等更多有名学者合著。
这是一篇共识论文(consensus paper),除AI研究者外,还有公共管理方面的学者,如清华大学人工智能国际管理研究院薛澜,以及诺贝尔经济学奖得主丹尼尔卡尼曼等。
Hinton认为,公司们正操持在18个月内把AI模型打算规模扩大100倍,没人知道这些模型会有多强大,也没有关于他们如何利用这些模型的规定。
(18个月100倍的操持来自InflectionAI)
目前论文公布在独立域名站点managing-ai-risks.com,arXiv版本将在稍后上传。
正文翻译回顾2019年,GPT-2还不能完美地数数。
而在短短四年之内,深度学习技能已可助力开拓软件、创造逼真的虚拟环境、供应专业的建议,并且让机器人具备了措辞理解能力。
这些系统的进步不断超越预期,令人瞠目结舌。
而接下来的进展或许会更为惊人。
只管现有的深度学习系统尚有不少局限,但各大公司已在争相研发能与人类聪慧反抗的通用AI。他们投入的资源越来越多,创新的技能日月牙异,且AI的自我进化能力加速了这一趋势。
没有迹象显示AI的进步会在达到人类聪慧的水平后结束。
事实上,在某些特定领域,AI已经超越了人类。它们可以更快地学习、处理更多的信息,且在大规模打算中表现出色,而且可以轻松复制。
技能的飞速进展令人震荡。一些科技巨子有能力将其AI演习规模在短韶光内增加数倍。考虑到AI研发的持续投入和自我进化的趋势,通用AI在未来十到二十年内超越人类的可能性不容忽略。
若被精确和公道地运用,前辈的AI可以为人类办理长久以来的问题,如疾病、穷苦和环境问题。但与此同时,强大的AI也带来了巨大的风险,这些风险我们还远未准备好应对。我们须要平衡AI的能力与安全性。
遗憾的是,我们在调度策略方面已经稍显掉队。我们须要提前预见并应对风险,不能等到问题真正涌现时再行动。环境问题便是一个例证,但AI发展的速率意味着我们没有太多韶光可等。
AI的高速进步对社会带来了巨大的寻衅。若不加以管理,它们可能加剧社会不平等、威胁社会稳定并削弱我们对真实天下的认知。它们乃至可能被用作犯罪工具,或者加剧环球的不平等和冲突。
更令人担忧的是,自主AI的发展可能会放大这些风险。当前的AI虽然尚不完备自主,但这一状态正在发生改变。例如,GPT-4只管强大,但如果掌握了具有自主目标追求的机器人或程序,其行为可能变得难以预测,且我们可能难以干预。
为此,我们呼吁环球共同努力,通过技能、政策和法律手段来规范自主AI的发展和运用。否则,我们可能会面临一个被AI主宰和误用的未来。
这只是开始。我们迫切须要更多的研究和谈论来办理这些问题,并希望得到社区的支持和帮忙,以确保AI为人类带来真正的好处,而非威胁。
参考链接:[1] managing-ai-risks.com[2] https://twitter.com/geoffreyhinton/status/1717967329202491707
— 完 —
量子位 QbitAI · 号签约
关注我们,第一韶光获知前沿科技动态
本文系作者个人观点,不代表本站立场,转载请注明出处!