开源是不是“智商税”?

三问AI未来成长_开源_模子 AI快讯

随着AI技能快速从理论走向实践,开源、闭源之争再度升级,引发业内人士舌战。
百度创始人、董事长兼首席实行官李彦宏多次在公开场合力挺“闭源”。
他认为,开源实在是一种“智商税”。
同样参数规模之下,闭源模型的能力比开源模型要更好,而如果开源模型想要追平闭源模型,那么它就须要有更大的参数,这就意味着推理本钱会更高,反应速率会更慢。

李彦宏直言:“有些同行稠浊了模型开源和代码开源的定义,模型开源与代码开源不同,无法做到众人拾柴火焰高,商业化的闭源模型才是最能‘打’的。

月之暗面创始人杨植麟同样支持闭源。
他认为,像OpenAI一样的闭源是通往超级运用的唯一通路,而开源只是To B的获客手段。
“AI和其他领域不同,开源没有算力验证,没有人力和成本聚拢,是追不上闭源的。

魅族前副总裁李楠则发微博“怒怼”李彦宏:“Lama3的性能撑起中国AI项目半边天。
随着OpenAI的收紧,开源将是AI发展的一条主要路径。
中国IT行业,无论是阿里云还是鸿蒙都有大量的开源项目支持。
百度在根本技能层面为本土化发展做了啥?”

猎豹移动董事长兼CEO、猎户星空董事长傅盛也对“开源大模型是智商税”的说法表示不认同。
他认为,现在收费很高的模型授权费、API费,才是智商税。
“从逻辑上来说,开源大模型是免费的;从事实上来说,开源大模型的各种性能已经够好,很多企业都在用开源大模型,他们也没向谁交钱。
”他说道,但是反不雅观闭源大模型,“哪怕对用户,一个月要交几十块钱才能用的那种闭源大模型,也是智商税。

只管业内关于开闭源的辩论不休,但从目前的市场走向来看,彷佛越来越多的公司选择“押注”开源。
谷歌推出了开源模型Gemma,从闭源重返开源赛场。
明星AI创企xAI的创始人马斯克多次表示对OpenAI不满,认为其背离了非盈利开源公司的初心与义务,并积极开源旗下3140亿参数规模的大模型产品Grok,以示其对开源路线的支持与信心。

海内AI赛道呈现出诸多“开源派”选手。
比如,阿里云开源了参数从5亿到千亿的数款模型,最新发布的通义千问2.5版本性能全面赶超GPT-4 Turbo。
腾讯也从闭源转为开源,在开源文生图大模型之后,腾讯表示未来还会考试测验参数量更大的模型。
明星AI创企百川智能同样选择了开源路线,自今年以来估值已超18亿美元。

LLMFarm创始人兼CEO宜博表示,整体来讲,开源社区当前还是掉队于闭源社区,如果以GPT为标准,大概是一年韶光的差距。
开源社区实在一贯处在追赶闭源社区的态势,但这种差距正在逐渐缩小。

红帽中国首席架构师张家驹认为,开源的目标不是说一定要超过闭源。
“即便之前环球工程师协力做Linux,目标也不是要超过闭源。
”开源的代价是更加公开透明,在技能上更加平权,不会让其成为少数人牟利的手段。
“更为关键的是,对付AI来说,如果未来走向AGI,开源让AI的发展走向更符合全人类的利益,这一点的代价要远高于在某一方面去超越闭源。

该不该“卷”运用?

关于下一阶段AI发展怎么走,业界已普遍达成共识,那便是将关注点从模型本身转移到运用上。
例如,达摩院最新发布的一站式AI***创作平台“寻光”对标的便是爆款运用“Sora”,它已经可以让用户实现对***内容的精准掌握,同时可以保持多个***中角色和场景的同等性。
***中的每一个局部目标,都可以被精准地定义和修正。

依托腾讯混元大模型的C端运用“腾讯元宝”也正式上线,不仅能够供应AI搜索、AI总结和AI写作等核心能力,还能够面向日常生活场景,供应多个特色AI运用,包括百变AI头像、口语陪练和超能翻译官等。

从文生文到文生图,再到文生***,AI创新运用不断迭代出新。
从目前来看,社交工具是厂商重金押注的一个主要赛道。
第三方数据平台data.ai发布的《2023年AIGC移动市场洞察》中的数据显示,2023年12月AIGC运用***量破记录地达到新高,超过9000万人次。
个中,以AI技能为支持的人工智能谈天机器人运用用户增长尤为显著,贡献了2023年总***量的72%。

“今年,人们已经从关注大模型本身转变为思考和谈论大模型创造代价、赋能家当和落地运用,行业已形成共识,不再去谈论大模型是不是必要的,或者是大模型好还是小模型好,行业已经转变成更务实的状态。
”智谱AI CEO张鹏表示。

“模型落地,实用为先。
”腾讯云副总裁、腾讯云智能卖力人、腾讯优图实验室卖力人吴运声表示,“大模型的研发和运用必须关注、办理详细业务场景,必须关注可用性和性价比。

然而,李彦宏强调,要避免掉入“超级运用陷阱”,一定要涌现一个10亿DAU的APP才叫成功,这是移动时期的思维逻辑。
在AI时期,规律可能不是这样的,“超级能干”的运用比只看DAU的“超级运用”更主要,只要对家当和运用处景能产生大的增益,整体代价就比移动互联网要大多了。

商汤科技董事长兼CEO徐立也认为,当前AI的影响还没有到一个超级时候,由于AI暂未真正走进行业垂直运用并引起广泛的变革。
在徐立看来,现在的大模型只是个“影象器”,而想在垂直领域取得打破,须要人类构建更加高阶的思维链。

蚂蚁集团董事长兼首席实行官井贤栋指出,未来智能化无法依赖单一的大模型,而是须要全行业开放互助。
在移动互联网时期,APP是最范例的运用,但他相信在AI时期,专业智能体该当是新的运用范式。

李彦宏同样认为智能体是最好的AI运用发展方向。
他判断,未来,医疗、金融、教诲、制造、交通和农业等领域,都会依据自己的场景,以及自己特有的履历、规则和数据等,做出各种各样的智能体,将来会有数以百万量级的智能体涌现,形成弘大的智能体生态。

智能算力够不足?

在弘大的AI浪潮冲击之下,算力究竟够不足用成为业界人士关注的焦点。
近日,贵州贵安新区大数据和科技创新局公布的数据显示,截至5月28日,当地已累计支配智算芯片9.58万张,算力规模达到30.7EFlops(每秒10的18次方浮点运算次数),成为全国智算能力最强的地区之一。
根据《贵州省培植数字经济发展创新区2024年事情要点》,今年贵州要力争支配智算芯片20万张以上,全省算力规模达到75Eflops以上。

不但是贵州,北京、广东、成都、上海等各地亦争相投入到智算中央培植的热潮中。
赛迪顾问研究数据显示,估量到2026年,中国算力规模将超过360EFlops,三年的年复合增长率达到20%,中国智算算力和超算算力占比之和将达到40%。

然而,按照摩尔定律,算力基本每两年就要翻一番。
据商汤AI大装置家当赋能中央主任蒋钦先容,最前辈的人工智能模型的打算量每三四个月就翻一番,也便是每年增长近十倍,比摩尔定律两年增长一倍快得多。

近日,AI初创公司Anthropic的首席实行官Dario Amodei表示,若AI模型算力每年增长十倍,那么也可以据此推测演习模型所需的硬件也至少要强大十倍。
因此,硬件很可能是演习AI模型中最大的本钱驱出发分。
未来3年内,AI大模型演习本钱将上升至百亿乃至千亿美元。

端侧算力成为一个新热点。
移动芯片巨子高通公司中国区董事长孟樸认为,如果将20%的天生式AI转移到终端侧,到2028年将节省160亿美元的算力资源。
随着小型天生式AI的进步,能够在终端运行与云端一样好,乃至更好地天生式AI模型。

华为常务董事、华为云CEO张安但是表示,要认清芯片受到限定和制约的现实,不能把AI的算力需求都放在终端来办理。
从华为云的角度出发,张安然提倡中国AI要把端侧算力开释到云端。
同时他指出,中国在光缆和5G等基建上都有上风,同时也有能源上风,中国AI的发展要充分利用这些上风。

关于AI大模型过于耗电的问题,中国工程院院士、之江实验室主任、阿里云创始人王坚与国外一些主流见地不同,他认为中国一年的发电量超过美国、日本和俄罗斯的总和,因此电力是最不须要担心的问题。

与此同时,王坚也提出了他的“AI不等式”。
“跟现有的foundation model(根本模型)比较,我们的运用还不足好;跟现有的算力比较,我们的模型还不足好;跟现有的电力比较,我们的算力还不足好。
”王坚表示,“现在AI的问题,十年往后可能都不是问题,我们要动态地看AI面临的问题。

来源: 中国电子报