科大年夜讯飞刘聪:AI应用落地的关键是深入场景_模子_场景
“AI大模型运用落地的第一核心是深入理解场景,用场景需求牵引着技能的发展。”7月29日,科大讯飞副总裁、研究院院长刘聪在媒体沟通会上对外表示,中国拥有独特的运用处景上风,弘大的人口基数为行业产品供应了丰富的数据和多样化的运用处景,AI运用要能够创造商业代价,核心在于对落地场景的深入理解。对付目前热议的小模型潮流,刘聪认为,模型大小的选择也应根据实际运用处景和任务需求来决定。
科大讯飞副总裁、研究院院长刘聪
大模型落地依赖对场景需求的认知
2024年,大模型赛道竞争更加激烈,刘聪表示,科大讯飞更关注大模型能否真正实际运用到系统中,为用户供应可衡量的代价和效果,在这个过程中对场景的认知起到关键浸染。
刘聪以科大讯飞发布的首款星火智能批阅机为例,“没有大模型时,我们也做批改,有了大模型之后,现在批改比过往厉害了很多。”他表示,该款智能批阅机目前基于星火大模型V4.0的底座能力研发,可以在对多学科、多题型作业进行智能批改,即时天生报告,以便老师在作业讲评时进行分层辅导。
刘聪认为,这款产品之以是能迅速被市场接管,背后离不开对行业的深入理解和技能积累。科大讯飞早在十年前便提出了全学科自动阅卷的观点,通过长期的技能积累,才能够快速将大模型技能运用在产品中,并实现产品性能的快速迭代。
正是基于对场景的深入认知,科大讯飞在实行大模型“1+N”路线时也会因时制宜。“1+N”的“1”指通用的认知智能大模型,“N”便是大模型在各个领域的落地,包括教诲、办公、汽车、人机交互以及医疗等。刘聪坦言,经由实践,他们创造之前设定的“1+N”的逻辑存在冗余问题,今年,他们对“1”和“N”的划分进行了调度,“N”在落地场景中,有部分场景下的常用能力可以整合到核心业务里,不再作为独立业务存在,减少重复开拓的事情。
让场景和实际任务需求来决定模型选择
大模型进入下半场,从技能到运用,市场对付更易本地支配的高效率、低本钱模型越来越感兴趣。今年暑期,AI巨子们也密集发布小模型,既比性能,还拼价格。
7月19日,OpenAI发布GPT-4o mini,号称是“OpenAI最智能和最实惠的小模型”,不足为奇,苹果也发布了DCLM小模型,并且发布即开源。有不雅观点指出,这些模型参数小、占内存少,在特定场景中,经由精调后利用效果可以媲美大模型,成为性价比之选。
在刘聪看来,大模型与小模型的选择,实在根据繁芜任务方案需求而定。对付部分高难度任务包括繁芜的推理任务,比如数学推理等这类任务每每须要大规模模型的支持,由于它们涉及多步骤推理和跨领域信息整合。对付大略的任务,比如特定行业的翻译或文本处理,乃至编写代码这类专业性事情,中小规模的模型可能就足够了。特殊是在须要快速相应的场景下,如在个人电脑上利用,常日不须要依赖云端处理。
“不过,小模型的不断进步须要依赖大模型的发展。”刘聪指出,无论是大模型还是小模型,最主要的是根据实际运用处景和任务需求来决定,而不是大略地追求模型的大小或繁芜度。
刘聪表示,海内拥有独特的运用处景上风,弘大的人口基数为行业产品供应了丰富的数据和多样化的运用处景,这在某种程度上是上风。只管在通用大模型的用户生动度上可能不及国外,但在行业运用方面,中国拥有丰富的场景和数据,这反而成为机会。
本文系作者个人观点,不代表本站立场,转载请注明出处!