AI 大模型超全落地场景&金融运用实践,8 月 16 - 19 日 FCon x AICon 大会联诀来袭、干货翻倍!

李彦宏 WAIC 圆桌访谈:开源模型是智商税智能体正在爆发_模子_成本 智能问答

在 2024 天下人工智能大会(WAIC 2024)期间,百度创始人、董事长兼首席实行官李彦宏,与第一财经传媒集团总编辑杨宇东和《硅谷 101》创始人陈茜,进行了一场圆桌访谈。

在一个小时的对话中,李彦宏讲了几个独特不雅观点:

一,现在很少有幻觉问题了。
办理幻觉问题是在原来 Transformer 架构上,增加一些东西,“专业词语叫 RAG”。

二,模型的推理本钱,实在险些是可以忽略不计。

三,开源实在是一种智商税。
你永久该当选择闭源模型。

其余,李彦宏认为“没有运用的大模型一文不值”,呼吁行业不要卷模型了,要去卷运用。
运用实在离大家并不迢遥,基于基准模型运用在各行各业已经开始逐步渗透。
他援引文心一言的调用量数据,两个月前还在 2 亿,现在已经到了 5 亿,解释大模型背后代表了真实的需求,有人真的从大模型当中获益了。

以下是“百度”官方"大众号发布的圆桌对话原文:

超级运用什么时候涌现?根本模型之年夜将出身数以百万计的运用

杨宇东:由 ChatGPT 掀起的这个热潮已经持续一年多了,你也曾表达,接下来超级运用什么时候涌现?我们看到海内面向 C 真个大模型产品形态,看起来都差不多,都是搜索框+问答这种模式,你怎么看?有没有可能产生一种差异化的竞争?什么样的好产品会涌现?

李彦宏:我倒不是说一定在等待一个超级运用的涌现。
我更以为,在根本模型之上,该当能够出身数以百万计各种各样的运用。
这些运用有些是很小的领域,一个大家可能不太随意马虎想到的运用,但它对付那个领域的问题,办理得比以前好很多。
确切的讲,我现在还没有看到,能够比肩移动互联网期间超级运用那样的 AI 时期的原生运用。
但是已经看到,越来越多在各种各样场景、尤其是 To B 场景中,利用大模型提升了效率,产生了更多的收入,或者说节省了更多本钱的情形涌现。

本日,大家都在想,我能不能从 0 到 1,做出一个人们想也没想到过的东西?变成一个 DAU10 亿的超级运用?这个当然很主要,假以时日也一定会涌现。
但是,更主要的是大模型在各个领域、各个场景的运用。

从百度文心一言的日调用量来看,已经非常明显。
我们在 4 月份曾经公布过一个数据,文心一言的调用量每天有 2 亿次。
前几天,我们再公布的时候,文心一言调用量已经到了 5 亿次。
也便是说,两个月的韶光调用量是 double。
调用背后意味着什么?意味着它在给运用产生代价。
由于没有代价的话,人家也不会费钱去调用。

杨宇东:C 端用户会有什么样很好的场景?包括端侧、手机上的 APP,如何去调用 AI 能力?

李彦宏:我以为分两类:一类是大家比较关注的,过去从来没有过的运用。
现在比较盛行的、类似于 ChatGPT 这样的 ChatBot,便是谈天机器人。
海内每一个大模型公司,都会推出一个相应的 APP,或者是网站来做 ChatBot。

对付现有这些 To C 的运用,实在它的信息增益浸染也是非常大的。
我们在 4 月份的时候,公布过一个数据,百度搜索本日有 11%的搜索结果会由 AI 来天生,这个比例还在不断提升。
再比如说百度文库,过去,百度文库是大家在上面找一些现成的文档。
本日,百度文库经由大模型改造之后,已经更多地变成了天生式 AI 运用。
你不管想要生产什么样的文档,是 PPT、是论文的格式、乃至是漫画,它都可以根据你的哀求天生。
今年以来,文库已经有大约 2600 万付用度户。
如果说用超级运用的标准来看,它也没有达到超级运用的水准,但是要看它实际产生的代价,有那么多人乐意为这个产品付费,还是很厉害。
这些产品都是过去已经存在,但经由了大模型改造之后,它的能力跟以前完备不一样了。

陈茜:我特殊赞许你最近在多个场合强调的,去卷 AI 原生运用,大模型才故意义。
但到本日,我们还没有看到运用的爆发,可能很多运用出来也不太尽人意。
以是我的问题或者迷惑在于,如果从模型能力上看,是不是现在还没有到去卷运用的时候?

李彦宏:大模型运用实在已经逐步在浮现出来,它对付现有业态的改造浸染,比从 0 到 1 的颠覆浸染,更早到来。
这个过程一开始大家以为,没有那么性感,但是它对付人的事情效率的提升,对付本钱的低落,对付打开新的可能性,产生的促进浸染,是比那些从 0 到 1 的运用,反而更大。
如果仅仅是从 0 到 1,你可能会希望涌现某几个 Super APP,也便是几个公司从中受益。
但是本日,险些各行各业所有的公司,被大模型加持之后,它都能受益。
这种影响力,对付全体社会、对付人类来说,无疑是更大的。

只是大家以为,以前都存在,这个东西我以前见过,以是没有新鲜感。
或者它更多出身在生产力场景,它的受众群体,或者单一运用的受众群体,不会过亿过十亿。
尤其在 C 端,在公众年夜众层面体感没有那么集中。
这是大家一贯在探求一个 Super APP 的缘故原由。

为什么智能体是未来趋势?门槛足够低,跑通了便是 Super APP

杨宇东:我们前面聊的是“卷运用”,接下来还有一个关键词叫“智能体”。
你说过好多次,AI 时期最看好的运用是智能体。
但我们目前并没有看到智能体的爆发,为什么你认为智能体是 AI 时期的未来趋势呢?

李彦宏:我以为智能体正在爆发,只是说它现在基数还比较小,大家的体感没有那么强烈。
但是你要看业界大模型公司,都在做智能体。
智能体便是一个险些可以“放之四海而皆准”的基于大模型的运用。
本日大多数 AI 原生运用,你用智能体的办法都可以做出来,效果也不错。
由于它门槛足够低,可能你连编程都不用,就可以做出一个效果不错的智能体。

门槛足够低,就意味着越来越多的人,可以做出他想要的智能体。
这个有点像 90 年代中期时候的互联网网站。
你可以把它做得非常繁芜,比如雅虎便是很厉害的网站。
但是在学校读书的大学生,他也可以做一个自己的 Home Page。
由于做网站很大略,在 90 年代中后期,就出身了数以百万计的网站。
大浪淘沙之后,终极出来了一些非常精良的网站,像 Google、Facebook,这是多少年之后才涌现。
但是早期看,这些网站都是乱糟糟的,一个大学生就能做一个网站出来,这有啥代价?但是你必须得门槛足够低的时候,让更多人进来,他们发挥聪明才智,指不定哪条路跑通了,它便是一个 Super APP。

陈茜:业界对 AI Agent 的定义,还是有一点不同。
你对 Agent 的定义是什么?

李彦宏:我首先要考虑,这个门槛要足够低,一个小白,大一的学生,他也可以很方便地制作一个智能体。
当然在此之上,可以有各种各样比较 fancy 的玩法,调用工具、反思、长期的影象等等,这些能力会逐步加进去。

不是说用了最前辈的这些能力之后,它才叫一个 AI Agent。
我反而以为,我们要把门槛降得足够低,让大家以为,我也可以搞一个 AI Agent。

说实话,我认为现在 AI Agent 用到的这些能力,仍旧是非常低级的,未来还会产生我们本日想也想不到的 Agent 能力。
但是这些能力的出身,反而要依赖数以百万计的开拓者,去开拓各种各样的运用。
在他们利用的过程当中产生新的需求,这些需求被办理的过程,便是一个创新过程,便是 AI Agent 进化的过程。

陈茜:百度有什么比较故意思的 AI Agent 案例,可以给我们分享一下吗?

李彦宏:有很多。
海内高考是一个非常大的事宜,不仅是学生,还有家长都非常重视。
过去大模型在干什么事?高考有作文题,我们用大模型来写一个作文,看它能得多少分。
实在你想一想,这个东西在哪用呢?不可能让一个考生带着大模型去参加高考。
但是高考完了之后,你要估分,要报志愿,要选择学校,你要选择专业,一个考生他该报哪个学校,哪个专业,每个人情形都是不一样,每个人的问题也都是不一样。
这种情形下,哪有一个全能的辅导老师可以见告你,你最适宜的是哪个学校哪个专业?但是 AI Agent 就可以干这个事情。
我们开拓了一个高考填报志愿的 AI Agent。
在高峰期间,一天有 200 万人在利用,足见大家对这个东西的认可度和依赖度还是非常高的。

大模型对 B 真个改造比互联网更大,规模更小一点的模型市场需求量更大

杨宇东:通用大模型和行业垂直大模型,它将来到底是什么样的关系?

李彦宏:大模型在各个垂直场景里怎么用?我们经由了一个探索过程。
最初我们的想法是,我把这个根本模型做得越来越强大,大家叫通用人工智能,在什么场景我都能做得很好。
后来创造这件事情没有那么随意马虎,每个场景都有它自己的道。
当运用处景须要反应快的时候,我们须要更小的模型。
这种小的模型,它由于没有大模型通用的能力,以是在垂直场景当中,还要对它做精调,便是 SFT,把你行业的数据怎么灌进去,再经由各种各样的调教,在这个场景里的效果,就能够跟大模型比较差不多。

类似这种场景,我们也见了很多。
去年 10 月份,我们发了文心 4.0 之后,紧张精力在做什么呢?便是根据最强大的模型,去裁剪各种体量的小模型,比如说十亿量级的模型,百亿量级的模型,千亿量级的模型,这个模型大概善于角色扮演,那个模型大概善于逻辑推理等等,根据客户不同利用场景的不同哀求,做出各种各样的模型。
这些模型大多数速率都比 EB4 要快,推理本钱比它要低,以是这种运用是大家更爱用的。
本日你要看市场需求的话,规模更小一点的模型,市场需求量是更大的。

杨宇东:你为什么认为,大模型对 B 真个改造,比互联网对 B 真个影响更大?

李彦宏:互联网对 C 真个改造,我们都是感同身受的,是非常彻底的,是颠覆性的。
但是互联网对 B 真个改造,我以为一样平常般。
用的技能比较大略,产生的增益也没有那么明显。
但大模型不一样。
我们打仗到的一些能源电力、生产制造等企业,都有类似的需求。
比如说,现在海内电动车卷得也很厉害,车内的对话系统,很多也在用文心大模型,利用量也不小,但是对百度来说,这便是一个 To B 的运用,我们不直接供应给用户,它是经由了 OEM,经由了车厂的集成之后,把这个运用供应给了终端消费者。
这种事情实在非常多,而且我们就看调用量,如果调用量上得很快,这就解释我们的客户须要这些东西,B 端靠着这个大模型,靠着 AI 原生运用产生了代价。

杨宇东:在金融、医疗等这些比较严谨的领域,天生式 AI 的幻觉问题,怎么破解?

李彦宏:本日,该当说你会很少创造幻觉问题了,尤其是用最大规模、最强大模型的时候,已经很少涌现幻觉问题了。
为什么呢?一开始,纯粹用原来的 Transformer 去做出来的大模型,它确实是非常难避免幻觉的,由于它是个概率模型。

要解这个问题,就要在原来 Transformer 架构上,增加一些东西,专业词语叫 RAG。
我只要轻微借助一点工具,就可以肃清这样的幻觉。
随着利用这种工具的能力越来越强,你就会创造,在各种场景下,幻觉是越来越少的。

当然,本日这种天生式人工智能,更像是一个 Copilot,在特殊严明、对准确度哀求特殊高的场景下,我们还不能让它全部自动实现,还要靠人把末了一道关。
这样,一方面可以提升效率;另一方面,在准确度上、在肃清幻觉上,也能够起到比较主要的浸染。

陈茜:现在企业对 AI 的利用本钱怎么看?是否乐意为 AI 付费?你在跟一些企业客户互换的时候,他们的态度是什么样子的?

李彦宏:当你处在市场经济环境当中,企业实在是非常理性的。
尤其是中小企业,账算得非常精。
如果这件事情能够让我降本增效,能够让我赚到更多的钱,那我就会用它。
如果不能,你再吹破天,我也不会用。
市场会见告你,大模型到底有用还是没用?我们看到调用量的迅速提升,确实是由于在用户侧、在客户侧,它为企业产生了降本增效的浸染。

我再举个例子,比如说在招聘场景。
过去是怎么做的?是 HR 坐在那,一份一份简历筛查,然后一个一个口试,口试 100 个人,末了筛出来 10 个人,再进行下一步口试,效率是非常非常低。
但是大模型进来之后,它可以非常明显地去提升效率。
由于,用大模型去理解这是一个什么人,理解这个老板要招什么样的人,然后进行匹配,它的效率就会高很多。

而且,你去算一算模型的推理本钱,实在险些是可以忽略不计的。
尤其在海内,现在大模型价格战是非常厉害的,百度的轻量级模型都是免费的,这个免费不仅仅指的是模型免费,实际上算力也送你了,你本来要有电脑,要有带宽等等,这些都没有了,你只要来用就好。

如何看“开源闭源之争”?开源是一种智商税,闭源模型比开源模型更强大

杨宇东:开源闭源问题是业界关注焦点。
你认为,闭源模型会持续领先。
但我们看到,开源大模型越来越多,乃至有些能力都不亚于我们说谓的 GPT4 了,这个问题你怎么看,你们还是会武断的走闭源路线?

李彦宏:我以为,开源实在是一种智商税。
你仔细想一想,我们为什么要做大模型?是它能够有运用,这些运用在各种场景下,能够为客户为用户提升效率、降落本钱,产生过去产生不了的浸染。
以是当你理性的去想,大模型能够给我带来什么代价?以什么样的本钱给我带来代价?你永久该当选择闭源模型。
本日这些闭源模型,无论是 ChatGPT 还是文心一言,以及其他各种各样的闭源模型,它的均匀水平,一定是比这些开源模型更强大,推理本钱一定是比开源模型更低。

陈茜:百度对 To B 客户,是“闭源+公有云”这样一套打法,有什么考量吗?

李彦宏:ToB 的客户,他要选择的是一个性价比最好的模型。
一方面,模型要对他的运用产生代价,其余一方面,本钱要足够低。
很多时候,你看着有用,一算本钱不划算,客户就放弃了。
这是为什么我刚才讲,开源模型打不过闭源模型。
你只要理性的去看待,你的收益是啥,你的本钱是啥,你就会创造,最好还是去选择闭源模型。
当然,闭源模型不是一个模型,它是一系列的模型,根据你的利用场景去平衡一下,要多好的效果,要多快的推理速率,要多低的本钱。
模型有非常多的变种,可以根据用户的需求,让他来做选择。

闭源模型还有一个开源模型不具备的上风:这些相对来说规模更小的模型,都是从最大最 powerful 的模型裁剪出来的,裁剪出来这些更小规模的模型,仍旧比那些同样规模的开源模型要效果更好。

陈茜:百度对付中小模型、模型蒸馏上,有什么样的策划?

李彦宏:我们看到的真实需求,在绝大多数情形下都不是最大的模型,它都哀求这个模型变小。
变小意味着什么?速率快,本钱低。
比如说,我干这个事儿,统共能够给我带来每年 100 万的增益,但利用最大的模型要 120 万的本钱,那我肯定不干了。
那我就会给大模型公司提要求,把本钱降到 80 万,乃至降到 8 万。
那我们就得想,怎么把最强大的模型,蒸馏到足够小,本钱足够低,知足这个场景需求。
由于闭源有一个最强大的根本模型,根据模型蒸馏或者裁剪出来的小模型,比那些开源模型做出来的东西更有竞争力。
以是我们以为,To B 的机会仍旧在闭源不在开源。

大模型价格战不可避免,终极还是比谁的技能好、效率高

杨宇东:我们现在看到价格战已经开始打起来,实在还是蛮出乎我们的预见,这么快。

李彦宏:价格战险些不可避免,在中国互联网干了这么永劫光,实在已经对价格战非常熟习。
但就像你讲的,确实来得比我想象的更早一点,这么早就开始把价格打到险些不可思议低的地步。
但某种意义上讲也不是坏事儿,当你足够低,乃至免费的时候,就会有更多人有积极性来考试测验,在大模型根本上去开拓各种各样的运用,大模型对付各行各业的渗透速率会更快。

杨宇东:很多闭源大模型 API 调用费越来越低,大模型靠推理收费的商业模式未来成不成立?往后大模型比拼的是哪些点?

李彦宏:大模型技能天花板还是很高的,本日我们还是对付大模型的能力有很多不满意的地方,仍旧须要很多非常精良的技能职员、须要很多算力、须要很多数据,才能演习出下一代大模型,我们还可能须要下下一代、下下下一代的大模型。

以是终极我以为大家是要去拼谁的技能更好,你的技能好,你为客户产生了更好的代价。
本日之以是把这个模型打到足够低,是由于现在模型的这个能力实在还没有到最好,没到最好的时候,大家都差不多的时候,就会谁的价格低就用谁的。

韶光长了之后,市场本身会回归理性。
终极还是比谁的技能好,谁的效率高,谁会胜出。

陈茜:你以为这个价格战会持续多久的一个韶光呢?

李彦宏:这个很难讲,现在有些创业公司是玩家,也有很多非常大型的互联网平台公司是玩家,实在理论上讲是可以烧很永劫光。
但我以为烧钱不是事情实质,事情实质仍旧是谁的技能更好,谁的效率更高,当你的技能好、效率高的时候,你就不怕去打这个价格战,以是多永劫光都 OK,终极会是良好劣汰的过程。

陈茜:你以为在中国市场会是一个赢家通吃这样的一个局势吗?还是说等价格战之后会剩下几个紧张的?可能还有一些更小一点的?

李彦宏:这次天生式 AI 是对全体 IT 技能栈的大变革,过去 IT 技能栈是芯片层、操作系统层、运用层或者软件层,就这三层。
到天生式 AI 之后,IT 技能栈变成了四层,芯片、深度学习框架层、模型层、运用层,我认为在每一层可能都会出身至少 2—3 个大玩家。

运用层的话,可能会有数以百万计、乃至数以千万计的各种各样运用出来,也会逐步涌现超级运用,既然是超级运用,当然不会很多,可能是三五个。

模型层我以为大概两三个就足够了,由于末了大家比拼的是效率,你的效率如果不足高的话,逐步就以为说还不如用别的。

Scaling Law 短期内不会被颠覆,图灵测试不再是标准,AGI 须要十年以上才能实现

杨宇东:Scaling Law 还会持续有效吗?

李彦宏:Scaling Law 可能还会有多少年的生命周期。
但与此同时,在此之上会叠加各种各样的创新。
刚才讲的智能体,它的反思、进化能力等,实在跟 Scaling Law 已经是两个路线在发展,但它仍旧是基于 Transformer 这类大模型往上做。
未来再过一两年,还会涌现什么新的技能创新,在此根本上再去叠加,大家都在探索。
换句话说,我以为 Scaling Law 短期之内不会被颠覆,但是在 Scaling Law 之上会叠加出来很多我们现在可能还无法想象的创新。

杨宇东:你认为 AGI 实现的标准是什么?还有哪些路径可以让我们更快地通向 AGI?

李彦宏:业界确实还没有一个标准答案。
以前大家以为,通过图灵测试就实现 AGI 了,实际上现在大模型已经通过了图灵测试。
人们所说的 AGI,实在大多数时候已经不是只通过图灵测试了。

那么什么叫 AGI?在我心目中,AGI 便是机器或者说 AI,能够具备人在任何场景下所具备的能力。
Artificial General Intelligence,便是通用人工智能,它不管在什么场景下,能力都是跟人一样的,这是一个很高的哀求。

以是真正要实现 AGI,我认为还须要很多很多年。
业界有人说 AGI 可能再过 2 年,或者再过 5 年能实现。
我自己的判断是 10 年以上,大概更长的韶光。
我们听到很多人讲,AGI 是一种崇奉,当你把它当做一种崇奉的时候,谁的崇奉会明年就实现?这是自相抵牾的。
如果是一个崇奉,它便是你值得为之长期奋斗的一个目标。

陈茜:现在 GPT5 一贯在延后,担忧的声音也越来越高,AGI 没有办法用 Scaling Law 这个办法去带我们实现了,你对这个有担忧吗?

李彦宏:我不是很担心这件事情,我以为大家该当更关注运用,而不是关注根本模型,某种意义上根本模型迭代速率轻微放缓一点不是坏事,如果本日的运用开拓者,有一个相对稳定的根本来开拓运用,实在是效率更高一些的,如果模型每天在那儿练,每天都要重写一遍过去的代码,那是很累的。
但是在现有根本模型上不断去做微调,去做一些渐进式的迭代和和创新,实在你看到是一贯在发生的,无论是 OpenAI 不断在推的,还有百度我们的 Turbo 模型、更小量级的模型等等,都是在根据市场的需求在做迭代。

但长远来讲,我确实认为下一代大模型一定会好比今这一代模型强大得多。
什么时候推出来我不是很焦急,我们该当更多的去看真实的市场需求,下一代模型在迭代的时候,要根据市场需求来迭代。

原文链接:李彦宏WAIC圆桌访谈:开源模型是智商税,智能体正在爆发_天生式 AI_Tina_InfoQ精选文章