迈克尔·乔丹:不必担心人工智能“反叛”风险当务之急是提高可托度_人工智能_可托度
本月初,首届人工智能安全峰会在英国举行,包括中国在内的28个国家与欧盟共同签署了《布莱切利宣言》。这是人类历史上第一份就遏制人工智能风险达成的国际性声明,承诺为了全人类利益,将力求以“安全、以人为中央、值得相信、负任务”的办法设计、开拓、支配和利用人工智能,呼吁制订跨境政策以戒备人工智能风险,包括虚假信息和“故意或无意的灾害性危害”等。
乔丹教授在世界顶尖科学家智能科学大会上演讲。
天下顶尖科学家智能科学大会上,一些科学家在演讲中也谈到了《布莱切利宣言》。中国工程院院士、复旦大学教授邬江兴表示,对人工智能不能采纳“先发展,后管理”的策略,而是发展和管理“两手都要硬”,通过科研团队“自律”和法律、政策管理“他律”,实现对人工智能的有序有效管理,戒备其潜在的社会危害。
作为打算机科学和统计学专家,乔丹在演讲中指出,我们在谈论人工智能的负面影响时,不必聚焦毁灭性风险,由于那属于科幻小说和电影。对科学家来说,不断提升人工智能系统的可信度,是一个有代价的科研方向。
ChatGPT等大模型的问世,让人工智能系统有了更强大的功能,但乔丹提醒听众,所有人工智能系统都存在不愿定性问题。以ChatGPT为例,它在回答问题、给出文案时会产生“幻觉”,即不苟言笑地胡说八道,供应虚假信息。深度思维公司研发的“阿尔法折叠2”也存在毛病,预测一些蛋白质折叠构造时会出错。虽然“阿尔法折叠2”是一个诺奖级成果,已让研发团队卖力人戴米斯·哈萨比斯和约翰·贾伯得到拉斯克根本医学研究奖,但它并不能预测准确每个蛋白质的三维构造。
因此,乔丹认为,科研职员要对“AI4S”保持当心,不能把人工智能输出的科研结论当作“精确答案”。近年来,他带领团队在这个领域开展了深入研究,可以给每个人工智能系统设立其“置信区间”。如果“置信区间”很窄(小于1),那么这个别系的可信度就有待提升。
乔丹展示的数学公式能提高人工智能系统的可信度。
为了提高大模型等AI系统的可信度,乔丹带领团队通过优化调度系数、输入先验数据等方法,能有效扩大系统的“置信区间”。“我们采取的紧张是数学方法。”在演讲的一页幻灯片上,不雅观众看到了密密麻麻的数学公式。大概是由于用数学方法改进了并不可靠的AI系统,乔丹说,人工智能实在不是一种“智能”,科学家有必要持续提高其可信度,才能让它更好地为人类做事。
栏目主编:黄海华
来源:作者:俞陶然
本文系作者个人观点,不代表本站立场,转载请注明出处!