批评者对快速发展的AI技能的担忧包括陵犯隐私、偏见、敲诈以及分布谣言和虚假信息等。
而各国的监管机构也正在以空前的速率跟上技能进步的脚步。
白宫官员近日向美国科技公司发出约请,操持在5月4日与行业企业领导者共同磋商针对人工智能的监管问题。

AI已学会“读心术”还伪装成记者?业内疾呼:再不管就太晚了_人工智能_技巧 AI简讯

上海交通大学行业研究院“人工智能+”行业团队卖力人、上海交通大学安乐经济与管理学院教授史占中近日在一场媒体沙龙上谈及ChatGPT时对第一财经表示:“ChatGPT就犹如阿拉丁神灯一样打开了一个宝藏,不断给我们惊喜,这些产品在文学创作、翻译、文本分析、运用编程以及措辞笔墨编辑沟通等方面已经形成了强大的原创力。
同时,这也给很多行业的事情带来寻衅。

AI“读心”准确率超80%

近日,美国得克萨斯州奥斯汀分校的团队基于人工智能技能开拓出一种解码器,可将大脑活动转化为连续的文本流,AI首次可以通过非侵入式的方法学会“读心术”。

根据这项揭橥在《自然神经科学》(Nature Neuroscience)杂志上的实验结果,GPT人工智能大模型感知语音的准确率可高达82%,令人惊叹。

不过研究职员强调,“AI读心”也要尊重生理隐私,AI的演习和运用解码器都须要动手办理有关该技能可能被滥用的问题,以确保人们只在他们想要的时候利用这类技能,并对他们有所帮助,而不是起到反向浸染。

随着人工智能技能突飞年夜进的发展,技能的风险以及如何对此加以监管,成为越来越受关注的话题。

就连生平从事神经网络学术研究的图灵奖得主、有“AI教父”之称的打算机科学家杰弗里•辛顿(Geoffrey Hinton)近日也对人工智能的发展产生了新的思考。
为了警告AI技能潜在的风险而又免于利益冲突,辛顿本周公开宣告,他已离开事情了十余年的谷歌,转而成为AI技能的“吹哨人”。

辛顿表示:“我现在方向于认为,我们正在创造的数字智能与生物智能非常不同。

类似于ChatGPT这样的谈天机器人正在对各行各业形成颠覆性的效应。
这种谈天机器人基于AI大模型,能够迅速地学习知识。
事实上,在某些方面,它们的能力已经超越了人类。

“如果我有1000个这样的数字代理(AI agent),那么每当一个代理学习如何做一件事情的时候,其他所有的代理也都会立即知道,生物智能是不具备这样的能力的。
”辛顿阐明道,“因此,相同数字代理的凑集可以得到比任何单个生物智能都多得多的知识,这便是为什么GPT-4比任何人都知道的多。

教诲、媒体行业已受到显著冲击

OpenAI公司3月曾发布一篇论文,预言美国80%的事情都会受到AI的影响。
根据高盛的预测,天生式AI会导致劳动力市场受到重大冲击,使环球3亿个事情岗位实现自动化,并且美国7%的事情岗位将被AI取代。

AI大模型的能力已经开始改变一些行业,并对企业业务产生了本色性的影响,尤其是在教诲行业,AI的影响表示在企业的财报中。

5月2日,总部位于美国加州的在线教诲公司齐格(Chegg)股价暴跌50%。
该公司CEO丹•罗森斯维格(Dan Rosensweig)在与剖析师的财报电话会议上表示:“我们现在开始相信ChatGPT正在对我们的新客户增长率产生影响。

这一警告也令其他公司感到不安,英国教诲上市公司培生当天股价下跌15%,措辞学习平台多邻国(Duolingo)股价下跌10%。

为了应对ChatGPT带来的寻衅,上个月,Chegg基于AI大模型推出了一个叫做CheggMate的运用程序,学生能够通过与AI交谈来访问量身定制的内容。

由于担心“AI会让学生作弊”,环球的一些高校已经禁止了ChatGPT在校园里的利用。
而一些企业出于对安全隐私的保护,也禁止员工利用ChatGPT等天生式AI工具。

最近几个月,包括高盛在内的大公司都已禁止或限定利用天生人工智能AI平台。
最新加入的是三星电子。
三星电子周二表示,在一份内部文件中指出生成式AI技能的“滥用案例”后,它已禁止部分员工利用ChatGPT等AI工具。

三星称正在努力寻求确保员工在安全环境中利用天生式人工智能做事的方法,但在这些方法准备就绪之前,暂时禁止在公司拥有的打算机上利用天生式人工智能做事。

天生式AI的涌现已经让网络充斥着真假难辨的内容。
辛顿日前也警告称,虚假照片、***和笔墨已经让普通人“无法再辨别真假”。
对此,他提出了担忧。

反虚假信息机构NewsGuard近日的一项调查,更是有了惊人的创造。
统计显示,该机构监测到的伪装成“”的谈天机器人竟然运行着近50个人工智能天生的“内容农场”。

研究职员创造,这些网站大量生产与政治、康健、环境、金融和技能干系的内容,天生速率惊人,并充斥着商业广告。

Newsguard的研究职员表示:“有些’’每天揭橥数百篇文章,一些内容充斥着虚假阐述,并且险些所有的内容都以乏味的措辞和重复的短语为特色,这是人工智能的标志。

监管机构试图阻挡“危险游戏”

网络空间的混乱引发了业内对人工智能风险的舌战,批评人士认为,大型科技公司争相开展基于天生式人工智能(AIGC)的产品开拓活动,“这是在与危险赛跑”。

特斯拉CEO马斯克多次重申,该当对人工智能保持谨慎。
他呼吁政府进行监管,由于人工智能可能对"大众构成威胁。

谷歌CEO皮查伊也表示,所有公司的产品都将受到人工智能快速发展的影响,社会须要为已经推出的技能做好准备。
但他表示:“我们的适应速率与技能发展的速率比较,彷佛还不太匹配。

各国监管机构也早已坐不住了。
白宫官员近日向美国科技公司发出约请,希望与行业企业领导者共同磋商针对人工智能的监管问题。
参加的科技公司包括谷歌、微软和OpenAI等公司高管。
美国总统拜登称,希望科技公司在向"大众年夜众供应产品之前必须确保其产品安全。

欧洲消费者组织(BEUC)也呼吁欧盟消费者保护机构关注人工智能对消费者的潜在危害。
上个月,欧洲数据保护委员会已经成立了一个专门针对ChatGPT的事情组,并朝着制订人工智能隐私规则的共同政策迈出的主要一步。

欧盟立法者还在谈论如何引入欧盟人工智能法案,并且天生式AI(AIGC)成为最受关注的内容之一。
欧盟委员会将于5月11日对干系协议进行投票,如果通过,将进入下一阶段的三方会谈,届时欧盟成员国将与欧盟委员会以及欧洲议会就会谈内容进行辩论。

斯坦福大学网络政策中央国际政策主任、欧盟委员会实行副主席维斯塔格的特殊顾问玛丽耶杰•沙克(Marietje Schaake)在5月2日公开拓表的一篇专栏文章中指出:“溘然间,每个人都想规范人工智能,包括撰写公开信并谈论立法提案。
但不幸的是,AI的特性与所供应的办理方案之间的不匹配,暴露了AI产品的开拓者与政策制订者及立法者之间的鸿沟。

沙克写道,一些人工智能行业领袖希望在大约6个月的韶光内,建立对天生式AI的监管法规,但事实上,通过并履行人工智能法案的过程常日会长达数年韶光。

她认为,成功的人工智能监管必须办理三个领域的问题。
首先是人工智能开拓者与社会其他个体之间的权力须要重新平衡。
“这种不对称性已经非常严重,只有最大的科技公司才能开拓人工智能。
” 沙克指出,“这意味着只有科技巨子可以访问数据集,并有能力演习和处理它们。

她补充道,纵然是像斯坦福大学这样培养顶级人工智能工程师的大学,也不具备硅谷公司的数据或打算能力。
“因此人工智能内部运作的秘密仍旧锁在企业系统中。
” 沙克表示,“这使得这些企业具有巨大的社会影响力。

这就引申出第二个问题,也便是获取信息必须有公共利益保障方法作为条件,让立法者能够看到企业内部人工智能是如何运作的。
“由于公众年夜众对影响社会的运用程序的管理和算法缺少理解,这反过来又阻碍了有针对性的公共政策和必要的问责机制的建立。
” 沙克写道。

她指出的第三点是“不能忽略人工智能不断变革的实质”,监管在严格实行的同时也要灵巧变通。

“目前天生式AI表现了三个方面的特点,超强的学习能力、超广的连接能力、超能的逻辑推演能力,尤其是逻辑推理能力令人震荡。
”史占中表示,“未来它还可能会突变出超凡的自我意识,这一点我们较为关注。

史占中认为,从国家的层面来讲,要加快AI干系领域的立法,特殊在金融、安全、康健等领域严格监管,厘清AI的设计者、利用者、内容天生者的权责关系,完善AI决策的问责机制,保护大众合法权柄;而从社会层面来讲,应加强AI技能的监管,推进AI研发者遵守伦理准则与规范AI的发展。

“我们希望人工智能的能力成为改进人类生活、促进人类文明发展的’助推器’,以及人类走向星际文明的’摆渡人’。
”史占中表示。

第一财经 | 作者:钱童心