5月30日,超过350名人工智能行业的高管、研究职员和工程师联合在非营利组织“人工智能安全中央”(Center for AI Safety)发布的一份公开信上署名,公开信内容只有一句话:降落人工智能灭绝人类的风险,该当把它与大盛行病、核战役等社会风险一样,当做环球的优先关注事变。

350位大年夜佬联名警告!AI可能灭绝人类?但对通俗人来说更紧迫的是什么_人工智能_风险 云服务

这350人中很多都是AI领域的威信人士,比如OpenAI的CEO Sam Altman、谷歌DeepMind的CEO Demis Hassabis,人工智能“教父”Geoffrey Hinton,Anthropic的CEO Dario Amodei等等。

实在,在3月份,马斯克、苹果联合创始人Steve Wozniak、Stability AI创始人Emad Mostaque等人就揭橥联名公开信,呼吁停息演习比GPT-4更强大的AI,而Sam Altman也曾呼吁建立类似于国际原子能机构一样的组织来加强国际监管。

不过,这次的用词比以前更加惊悚,可能是想提醒人们,AI大概对人类的生存繁衍构成威胁。

从实质上说,AI与很多新技能一样是一把双刃剑,他们联合署名的出发点也有一定的***性子,但事情大概并不是这么大略。

首先,并不是所有AI威信都参与了署名,比如吴恩达发推回应称:AI是人类应对盛行病、景象变革、小行星等很多风险的关键技能,以是该当让它发展得更快而不是更慢。

虽然AI已经在很多领域取得了显著的进展,但离真正意义上的强人工智能,即在所有人类智能任务上都能匹敌或超越人类,还有很长的路要走,因此,我们可能须要对AI的能力有一个更现实的认识,不应过分浮夸其可能带来的风险。

实际上,AI与核武器之间有很大差异,核武器的风险是具有很强的毁坏性,而AI的紧张风险是可能带来的社会变革,如失落业、隐私陵犯、虚假信息等等,AI的这些影响是持久并且广泛的,而且在很大程度上取决于人们如何利用AI而不是AI本身。

并且,每隔一段韶光就涌现一次倡议,已经引起了一些人的抵触,有人就说:“搞出来的是你们,不让搞的也是你们,别闹了!

看似抵牾的表象之下,可能有一些隐蔽的动机,AI的颠覆能力可能会淘汰一些旧的巨子,孕育一些新的赢家,但有潜力成为新赢家的人就可能考虑建立新的竞争门槛。

比如,AI领域的领先者可能会支持更严格的监管,以便保持自己的竞争上风,由于他们已经有了应对这些监管所哀求的资源和根本举动步伐。

而对付新进入者或小型公司,这样的监管壁垒可能会阻碍他们发展,由于他们可能没有足够的资源来应对繁芜的监管哀求。

如果在人工智能领域霸占先发上风,就可能形成马太效应,再叠加算法更新和模型演习,就会进一步放大马太效应,而如果在此根本上再附加行业准入门槛,先发者的地位可能就更加稳固。

这便是为什么我们强调现在是“AI的线膛枪革命”期间,线膛枪替代滑膛枪的窗口期是有限的,这次天生式AI变革留给我们的窗口期可能很短暂,由于先行者会不断构筑自己的技能壁垒、规模壁垒和规则壁垒,越到后面就越难进入。

实在,与风险比较,AI创新才是真正的核心,由于AI最大的代价在于具有复制人类专家履历的潜力,能让以前只有少数人可以享受的专家级做事,变成大部分人都能享受的个性化高端做事,也便是我们一贯倡导的做事规模化。

而要实现做事规模化,不仅仅须要大模型平台创新,更须要各行各业、大大小小的企业参与运用创新,这样才能真正实现AI的普惠化,让社会大众都可以享受到它带来的便利与实惠。

这就意味着,虽然AI行业监管是大势所趋,但重点是如何避免让监管沦为设定门槛和不当竞争的武器。

以是,主要的不是几句倡议,而是建立一个透明、公道的AI监牵制度,而在这一问题上,不能只听某些利益干系方的一壁之词,该当更广泛地听取各方的不雅观点。
找到一个既能鼓励AI创新,又能有效防止AI风险的办理方案。

(王煜全为海银成本创始合资人)