中国科学院院士何积丰:人类和机械要持续合营进修人工智能不会替代人类创造未来_模子_技巧
人工智能是把双刃剑。技能的利用在推动社会经济飞速发展的同时,也会带来多重“安全隐忧”。
9月7日,在2023 Inclusion•外滩大会上,中国科学院院士何积丰以《大模型时期的安全问题》为题,与大家共同磋商大模型发展所带来的安全问题以及应对之道。
人工智能拥有超强的自主学习能力,进化速率极快,在数次迭代升级后,是否有可能在多个方面超越人类?
何积丰提到:“人类与机器都在学习。人类辅导机器,机器不断学习变得更加智能;在这一过程中人类也要学习辅导方法,使机器所天生的内容能够更符合人类须要。”何积丰表示,在人工智能技能发展过程中,要牢记人类的核心角色,人工智能技能将成为人类的助手,而不是替代人类创造未来。
谈及当前大模型带来的安全隐患,何积丰认为,问题紧张集中在隐私透露以及对齐两方面。
保护隐私安全至关主要
何积丰指出,隐私问题,即未经本人赞许的情形下,网络、利用和透露个人信息,是大模型发展过程中最受关注的问题。
详细来看,他认为,隐私问题在大模型的演习、与用户对话和结果天生三个阶段都有所涉及。
首先,大模型与传统机器学习不同,其演习须要大量数据,在这一过程中,只管研究职员早已采纳干系方法,但是提示技能仍旧使得大量用户的个人信息和数据被大模型吸入,从而造成隐私透露。
其次,大模型在与用户对话过程中,可能涉及到浩瀚用户私密信息,而这类信息每每没有受到应有的隐私保护。如在利用大模型的过程中,数据掌握键将哀求用户选择“结束对话”或“连续对话并许可获取数据”。这意味着如果选择连续对话,将可能造成隐私透露;如果选择保护隐私,将会失落去利用权。
再次,大模型在产出结果时,其强大的天生力也让隐私透露的办法变得更加多元,用户隐私获取将更加随意马虎,而这也将隐私保护变得更加困难。
反馈强化学习是实现对齐的技能路子
而对齐问题,即勾引智能系统的目标和人类代价不雅观同等,使其符合设计者的利益和预期,不会产生意外的有害后果,是大模型发展过程中的另一大安全问题。
“如果将人工智能的能力比做《西游记》中的孙悟空,那么对齐技能便是唐僧口中的紧箍咒,它可以担保孙悟空不会随意利用他的能力为所欲为。因此,对齐技能是掌握人工智能安全的核心技能。”谈及对齐技能的主要浸染,何积丰抛出上述比喻。
那么,对齐问题将会带来哪些安全寻衅?
何积丰表示,对齐的根本是人类代价不雅观,而人类代价不雅观处于动态变革中,且具有多元化特色。这样的特点可能导致对齐成为一项眼花缭乱的跨学科研究,这不仅磨练技能,也核阅着人类不同的文化。
此外,大模型有着“有用性”与“无害性”两个目标的冲突。在利用大模型的过程中,研发职员无法担保大模型是否会供应“缺点”不雅观点,那么要如何纠正这类“缺点”不雅观点,便是大模型发展过程中的主要寻衅。
对付这些问题,何积丰指出,反馈强化学习是实现对齐的技能路子。
反馈技能的第一重含义,即通过反馈给模型不同的“褒奖”旗子暗记,来勾引其高质量的输出。但是,每个人喜好不同,这种反馈也可能存在主不雅观成分,从而影响反馈的客不雅观性。
第二重含义,是基于给大模型供应明确的原则,使得系统自动演习模型对所有天生的输出结果供应初始排序。这样的反馈可以使得大模型天生效率更高,天生的内容更加透明,每个人都可以看到系统受到什么样的指令,将会天生若何的“答案”。
总体来看,人类与大模型都在进步,人类与机器持续共同学习,将更好地使技能转化为生产力,做事于经济社会发展。
逐日经济***
本文系作者个人观点,不代表本站立场,转载请注明出处!