李飞飞:人工智能正在成为一种特权而它必须追求人道 | 长江读书_人工智能_硅谷 计算机

“Sora能够生产视频,但无法替代宫崎骏带来的冲动。

这是今年英伟达GTC炉边发言中,人工智能领域顶级科学家李飞飞提出的主要不雅观点。
她将AI归结为一种工具,并希望为每一个在AI时期失落语的普通人发声。
在李飞飞看来,所有AI的发展都是关于人——详细的人。

她在最新揭橥的自传《我瞥见的天下》中,延续了这种更有人文情怀的,也更细腻的视角。
书中,李飞飞再次对未来人工智能的发展方向提出了自己的判断和警觉:人工智能的发展核心便是“以人为本”,让人工智能真正推动人类社会的发展,而不是成为威胁。

《我瞥见的天下》

作 者:[美]李飞飞

出版社:中信出版集团

出版年:2024年4月

2017 年,在担当谷歌 Cloud AI 首席科学家期间,李飞飞看到了人工智能与工业的迅速结合,从农业栽种到内容生产再到上游制造,人工智能已经开始重塑各个行业的传统运作办法。

李飞飞意识到了人工智能正在产生的深远影响。
2019年,她与哲学家约翰·埃切门迪共同成立了斯坦福大学以人为本人工智能研究院(HAI),旨在推动人工智能技能的发展的同时,确保这些强大的工具能够做事于提升人类福祉,而非仅仅追求生产力的提高。

01

当人工智能成为特权

2015 年 5 月,雅虎图片托管做事 Flickr 在描述 56 岁黑人男子威廉的肖像时,自动天生了一个标签“猿”。

雅虎的技能急速引发了各方强烈愤慨。
此后,这项技能持续赓续涌现失落误:将达豪集中营大门的照片标记为攀爬架,把一位脸上涂有彩色粉末的白人妇女也贴上了“猿”的标签。
到了 6 月,谷歌也因其照片做事将两个黑人青少年缺点地标记为“大猩猩”而陷入争议。
图像分类本已是旧调重弹的成功技能,却在短短几周内变得非常繁芜。

虽然事件并非恶意,但这并不能让人感到宽慰。
相反,无心之失落所揭示的问题才更加令人不安。
由于演习人工智能的数据集缺少多样性,导致了一系列猜想之外的结果,未经充分测试的算法和存疑的决策又进一步加剧了负面影响。

有果必有因,正如兼评论员杰克·克拉克所言,问题的根源在于人工智能“男性之海”问题:

科技行业的代表性不敷,导致算法无意中带有偏见,在非白人、非男性用户身上表现不佳。
这篇文章于 2016 年揭橥在彭博社网站上,是对人工智能伦理问题的最早一批驳论争辩之一。

事实上,直到本日,人工智能存在的偏见问题直到现在依然没有被很好地办理。

2023年底,《华盛顿邮报》揭橥了一篇详尽的专题宣布,深入磋商了机器学习技能中潜在的偏见。
当前的 AI 图像天生模型,如 Dall-E 和 Stable Diffusion,有时仍会反响出社会的刻板印象。

例如,在天生“具有创造力的人”的图像时,这些系统每每方向于呈现白人形象;而在描述“社会做事职员”时,则多数情形下展示的是有色人种的形象。

学术界早就意识到人工智能可能会带来负面冲击,然而,由于研究规模有限,风险一贯只存在于理论层面。
更严厉的问题是,越来越多的学者、政策制订者意识到,演习人工智能的高昂本钱正在将研究职员打消在该领域之外,从而危害了对这一新兴技能的独立研究。

面对Meta、谷歌和微软对人工智能领域数十亿美元投资,即便是资源雄厚的美国顶尖大学也显得力不从心。
Meta 操持采购 35万个专用 GPU 来推动其人工智能模型的发展,而斯坦福大学的自然措辞处理团队仅有 68 个 GPU 来支撑其研究。

为了追求人工智能研究所需的高昂打算能力和数据资源,学术界每每不得不选择与科技公司互助,这种不平衡的权力动态正在以奇妙的办法塑造这个领域,匆匆使人工智能学者调度他们的研究以用于商业用场。

斯坦福大学的报告指出,2022年科技行业贡献了 32 个关键的机器学习模型,而学术界仅有 3 个,这与2014年比较呈现出显著的变革,当时的多数人工智能创新都源自大学。

政策制订者正在采纳一些方法来办理资金缺口问题。
去年,美国国家科学基金会宣告投资 1.4 亿美元,启动 7 个由大学牵头的国家人工智能研究所,研究人工智能如何减轻景象变革的影响和改进教诲等课题。

但学者们表示,资金的注入可能来得仍旧不足快。

随着硅谷竞相打造谈天机器人和图像天生器,它正以高薪和研究有趣的人工智能问题的机会吸引着未来的打算机科学教授。

根据 2023 年的一份报告,近 70% 的人工智能博士终极进入了私营企业,而二十年前只有 21% 的毕业生进入了私营企业。

人工智能正在成为一种特权,一种排他性极强的特权。

02

硅谷能让人工智能

变得更好吗

李飞飞在英伟达 GTC 大会中表示:

本日的人工智能,基本上都是从好奇心驱动的学术研究课题开始的,这是我们社会不断创新的入口。
随着像 OpenAI 这样的公司开始在人工智能的发展中霸占主导地位,须要干系的法规去约束这些公司,以便让"大众年夜众受益。

硅谷的傲慢态度向来为外界所诟,只管公众年夜众对潜在风险的认知不断加深,但硅谷对人工智能技能的夸夸其谈也上升到了新的高度。

硅谷不断推出自动驾驶汽车,设计出高超博识的肿瘤检测算法,实现工厂端到端自动化。
至于被前辈技能取代了事情的人(出租车司机、长途卡车司机、装置线工人乃至放射科年夜夫)的命运,硅谷的态度彷佛介于半心半意的“再培训”和险些不加掩饰笼罩的漠不关心之间。

里程碑持续赓续地涌现,恐怖的情景正在逼近。

在一份 ProPublica 的独立调查中显示,有偏见的人工智能被广泛运用于处理贷款申请,乃至帮忙法官做出假释决定等方面。

类似的宣布还显示,在某些招聘中,求职者会先经由人工智能技能的筛选,然后才有真人口试官进行口试。

此类做法每每会在无意中造成歧视性影响,这一点并不令人意外。
这些更奇妙、更机构化的侵害险些不可能迅速得到纠正,干系问题险些是无声无息的,影响范围更广,而监管则少之又少。

人工智能不是征象,不是颠覆,不是难题,也不是特权。
我们面对的是一种自然力量。
它是如此宏伟,如此强大,如此反复无常,既能轻易引发灵感,也很随意马虎摧毁统统。
要让人工智能值得信赖,须要的远不止商业公司空洞的陈词谰言。

谁能作为值得相信的伙伴让我们理解这项技能的安全性如何?技能的透明度有多少?数据是否存在偏差,我们如何才能公正、可信地利用这种人工智能供应给我们的信息?这些都是我们须要去办理的问题。

03

人工智能如何以人为本

我们仍身处一场环球风暴之中。
每天彷佛都有新的新闻宣布自动化对环球劳动者构成的威胁。

须要明确的是,大型措辞模型,纵然是多模态的大型措辞模型。
可能也并不具备真正意义上的“思考”能力。
大型措辞模型很随意马虎涌现荒谬的观点性失落误,也乐于编造听起来合理但实际上毫无意义的胡言乱语。

理解这些事实有助于我们避免过分迷恋模型的能力。
然而,随着大型措辞模型天生的文本、图像、语音和视频越来越繁芜,真与假之间的界线愈加模糊。
越来越多的评论家开始质疑,为我们敲响警钟:作为个人、机构,乃至社会,我们究竟有没有能力区分真实和虚构?当人们意识到这统统还只是 1.0 版本时,这种发问尤其令人警觉。

科技不断发展,算法措辞表达的高等程度已逼近人类水平,机器人正在逐渐学会应对真实的环境。
视觉模型不仅可以通过照片进行演习,还可以在全三维天下中进行沉浸式实时演习。
人工智能能够像识别内容一样流畅地天生内容。
与此同时,伦理问题在我们周围不断呈现,与人类经济社会发展的关联也日益紧密,但这便是科学一贯以来的样子。

深度学习飞速发展,每一年都觉得像是要面对一个全新的领域,其运用的深度和多样性增长得如此之快,乃至全职研究生和博士后也很难跟上文献的步伐。
可能性无穷无尽,寻衅也永无止境。
面对环球亟待办理的问题,面对具有历史意义的机遇,面对可能须要几代人的努力才能揭开答案的未知,真正办理所有问题的答案远远不是公司计策或学术课程所能供应的。

是什么让硅谷的公司如此强大?不仅仅是它们数十亿美元的资金或数十亿用户,也不仅仅是由于它们拥有惊人打算能力和数据储备,让学术实验室的资源相形见绌。
它们之以是强大,是由于成千上万个才华横溢的人在同一个屋檐下共同努力。

但商业公司只能利用这些人才,而无法塑造他们。
硅谷一次次地涌现类似的情形:才华横溢的技能专家险些可以建造任何东西,但问及事情的伦理问题时,他们却一脸茫然。

是时候重新评估人工智能教诲的各个层面了。
未来几年,从业者须要的不仅是专业技能知识,他们还必须理解哲学、伦理学,乃至法律。

想象空间是巨大的,但愿景须要一个主要的纽带串联起来,这个纽带便是大学。
早在有人利用人工智能谋取利益之前,人工智能就已经在大学里起步了。
在大学校园里,仍旧最有可能感想熏染到某些意想不到的研究打破带来的火花。

我们要从根本上重新构想人工智能,使其成为以人为本的实践。
人工智能一贯以来都追求科学性,而现在,它必须也追求人性。
人工智能该当秉承最精良的学术传统,保持互助和敬畏,同时不畏惧直面现实天下。
毕竟,星光是多样的。
一旦白色的光辉展开,各种颜色就会发出刺目耀眼夺目的光芒。