来感想沾染一下“人工智能+”三甲病院是这样用大年夜模型的_医疗_病历
量子位 | 公众号 QbitAI
当去年GPT4公布的时候,我们大吃一惊,哪有这样的事;过多少韶光后淡忘了,由于你也没有用过。
今年溘然涌现Sora,惊呆了,笔墨就能出来一幕剧;难道仅仅是如此吗?不是,都解释我们没有用上。
我的意思是,须要让一部分人先用起来。
今年,环绕AI的最前沿科技依旧是大热门的话题,而上述这段话正是来自全国政协委员周汉民。此建议一出,可谓是立即在网上掀起了不小的热潮。
而之以是会有如此建议,是由于在周汉民看来,对付这些最前沿的技能是要尽快体验和利用的:
如果你不足理解,就会处于劣势。
由于它所带来的因此点带面、连线成片的巨大影响效应。
不丢脸出,其核心不雅观点,便是技能须要被用起来,要尽快地做到落地。
而这也应了自ChatGPT引爆AIGC大热潮以来的一个大趋势,即从大模型的演习逐渐向推理过渡,从底层的模型层逐渐向顶层的运用,乃至是更进一步的行业或消费者运用发展。
但毕竟像Sora这样的技能也是刚问世不久,诸多技能和体验办法还并没有对外开放;而大措辞模型(LLM),则是已然火了整整一年有余。
由此能遐想到的一个问题便是——LLM,现在用得怎么样了?
让我们先拿医疗行业的实践举个例子。
无论因此往传统AI,还是当下顶流大模型,医疗领域一贯都是一个非常范例且亟需AI支持的大行业场景,AI的融入,能肉眼可见地提高医疗做事的效率和质量、应对医疗资源短缺的寻衅、以及推动个性化医疗的发展等。
让我们从电子病历上来个“以小见大”。
一方面,与之干系的事情可以说是非常的繁杂,大量的文本信息须要人为手动地去输入,在有些年夜夫详细追踪患者的情形下,病历乃至可长达万字之多,极随意马虎涌现缺点录入的情形。
另一方面,电子病历又会影响到年夜夫和医疗事情者的判断,由于他们须要对电子病历有着深入的洞察,以便创造潜在的康健风险和疾病模式。
其在医疗事情环节中的主要性可见一斑。而诸如LLM这样的AI技能,适值能够很好地知足对大量文本内容的信息化、数字化以及深入理解,恰好可以用来做病历的归纳、纠错和主要信息的提炼,而且这类活儿恰好苦到,或者累到……所有“正凡人类”都不太乐意干。
那么这些事情让AI来代劳,又能带来什么样的效果呢?我们不妨以深耕医疗行业多年,并且已经帮助浩瀚头部三甲医院完成信息化和数字化的卫宁康健为标杆来一探究竟。
卫宁给出的一套办理方案叫做WiNEX Copilot,如其名,它在医疗领域所发挥的浸染,正是充当年夜夫和干系事情者的AI助手。
在WiNEX Copilot病历文书助手的加持之下,年夜夫们可以一键天生符合医疗规范和匹配患者个人病情的病历文书段落,大幅减少病历记录书写事情量,可以让他们更专注于诊断和治疗。
从表露的数据来看,只须要给它8个小时(例如在年夜夫放工后的韶光),病历文书助手就可以处理近6000份病历,相称于三甲医院12名年夜夫一天事情量的总和!
而这也还仅是LLM上岗医疗的一隅,WiNEX Copilot还具备若何的实力,我们连续往下看。
AI年夜夫助手为什么值得拥有实际上,WiNEX Copilot已深度集成到卫宁新一代产品WiNEX中,除了前面提到的病历文书助手,我们还可以举几个有代表性的场景来进一步展示它的实力。
在放射科,WiNEX Copilot影像报告助手就能帮助年夜夫提升诊断质量,降落误诊率。
根据影像年夜夫写下的影像检讨所见情形笔墨描述,这个小助手就可以自动天生影像诊断结论,包括详细的病变名称或诊断、随访建议等。
年夜夫可基于对自动天生内容准确度的判断,灵巧选择一键引用或重新天生。
对付影像报告的完全书写事情来说,这就相称于人类年夜夫和AI互助完成了一轮交叉核对,减轻影像科年夜夫的事情包袱,降落误诊漏诊风险,提高影像报告质量。
特殊是碰着有多次检讨记录的随访患者,系统可自动调出干系的报告赞助比拟剖析,让诊断结论更严谨、完全、准确。
再如WiNEX Copilot药品知识助手,不仅能从海量的医药文献和数据库中快速检索出与用户查询干系的精确知识,还能基于这些信息天生普通易懂、内容准确的回答。
这样一来,就相称于给医护职员供应了一个外挂的药品知识库,面对不断更新的药品信息,也能跟得上变革。
就像这样,WiNEX Copilot对接上详细细分的医疗业务场景,就会立即摇身变成医护职员的全方位、多维度智能助手。
目前WiNEX Copilot已经集成在卫宁康健WiNEX全系列产品中,覆盖医院管理、年夜夫增效和患者做事等100多个临床运用处景。
所有这统统,看着炫目又实用,一定须要氪不少金才能拥有吧?
划重点了,它的硬件本钱非常合理,性价比大概出乎你的预见。而且更主要的是其实际支配和运用也非常高效,能在任何一家已经利用WiNEX系统的医院迅速“上岗”。
这,又是怎么做到的?
用CPU加速AI落地可以把AI产品做到既贴近用户需求,又能把它落地和支配的效率拉满,这对付卫宁康健来说实在是相辅相成的。
作为海内医疗信息化领域龙头企业,卫宁康健做事的各种医疗卫活气构用户达 6,000 余家,个中包括 400 余家三级医院,覆盖聪慧医院、区域卫生、基层卫生、公共卫生、医疗保险、康健做事等多个领域。
在技能方面,卫宁康健还拥有成体系的系统研发、AI和大数据技能转化能力。
到了大模型时期,卫宁康健多年积累的医疗行业履历、高质量演习数据和研发能力就起到了关键浸染——
在三项上风的综合下,推出面向医疗垂直领域的大模型WiNGPT。
WiNGPT正是WiNEX Copilot的底层AI引擎,它一个突出特点便是结合高质量医疗数据,可针对医疗场景优化和定制。
从2023年初开始研发,到10月正式发布时预演习数据20G,微调数据更是达到50万条。
WiNGPT另一个突出特点便是能高效交付、支配和运用了。
卫宁康健为此选择与英特尔互助,通过软硬适配、优化模型算法等手段,把在CPU上支配的天生效率搞到靠近GPU的水平。
为什么要选择这一条技能路线,与CPU本身的能力和医疗行业的特点都脱不开关系。
首先,高端CPU近年来瞄准AI市场持续发力,内置的AI加速技能的性能已经能够知足需求。
这一步在运用支配方面更看重的推理算力方面表现得更为突出。
例如卫宁选用的第五代英特尔® 至强® 可扩展处理器,内置了AMX(高等矩阵扩展)加速技能。比较同样内置AMX的第四代至强® 可扩展处理器,得益于自身在微架构和整体性能上的提升,第五代的推理性能提升高达42%;而与内置了矢量加速指令集,即深度学习加速(DL Boost)技能的第三代至强® 可扩展处理器比较,其AI演习和推理性能提升更是高达14倍。
其次,在医疗行业数字化过程中,CPU已有非常广泛的利用根本。
这一点行内人都知道,广泛运用的电子病历系统、医院资源方案系统以及患者管理系统等等,都须要处理大量的数据,并且哀求高可靠性和实时性。
因此CPU早就已经是医疗行业常常采购的设备,不像专用AI加速器或者GPU还须要特批采购流程,选择在CPU上落地AI运用自然更平滑顺畅。
再进一步来说,CPU得益于这种根本,积累了充足的技能人才储备,更易于优化和利用。
CPU群众根本广泛,易于利用、有较出色的可靠性,在医疗行业历经磨练的同时,也积攒了大批干系专业人才。
这些人才,和卫宁康健自己的专业人才,再加上互助伙伴英特尔方面的工程师协作,推进AI运用落地时,无论业务方案还是硬件优化方面都能做到就绪程度更高,上手更快。
综合来看,如果这样一个AI 运用能在拥有广泛支配、易于获取,便于运用和优化,能兼顾通用打算又能做推理加速的平台上落地,且不用为此导入异构带来的各种繁芜性,自然就会收成高效的运用表现、落地速率和更会有的本钱竞争力。
详细到实际表现上——在卫宁康健和英特尔共同对WiNGPT的推理进行优化后,提升了内存利用效率,并通过对 PyTorch在CPU平台上紧张算子的算法进行改良,进一步加快了深度学习框架的推理速率。
而在测试中,将基于第五代英特尔® 至强® 可扩展处理器的方案与基于第三代英特尔® 至强® 可扩展处理器的方案进行了比拟,结果显示,新一代处理器可将性能提升多达 3 倍。
同时,CPU方案还具有可以更轻松扩展推理实例数量的上风,并且可以在各种平台上适配进行推理。
所有这些上风叠加的结果,便是能让每家已经用上卫宁新一代产品WiNEX系统的医院,都有机会拥有WiNGPT支持的全套WiNEX Copilot医护智能助手。
CPU成了大模型时期下的另一种解法那么我们现在再来回答最初的那个问题:如何把LLM用好?
首先非常确定的是,目前的大模型已然是步入到了拼谁可以“快好省”地用起来的阶段。
这种趋势从去年便已开始崭露锋芒,例如从ChatGPT问世之后,国内外先是呈现出了百模大战这种以演习为根本的态势。
而后从下半年至今,则是在演习完大模型的根本之上,更多企业都在思考的则是如何将LLM真正地扎根到行业里。
卫宁这个例子,可以说是较为成功的范例,这不仅是得益于它长期在以大模型为代表的前沿技能上的跟进与创新,更是基于它对付医疗行业的深耕;因此才可以捉住医疗领域的痛点,并让LLM在个中发挥更大的代价。
由此来看,如何能把LLM用好,需得先有深厚的行业积累、有洞悉,方可精准切入。
诚然,环球步入大模型时期之后,GPU或专用的加速器无疑成为了喷鼻香饽饽,并且加倍呈现出千金难求的局势。
然而这便是所有场景中的最优解吗?不见得。
正如我们刚才所言,不论是传统的AI技能亦或是LLM,要想很好的落地需得是做到“快好省”。
若是在支配时盲目堆GPU,一是可能会涌现算力上的过剩乃至摧残浪费蹂躏,二是在落地效率上可能达不到那么高,同时本钱也可能会水涨船高。
因此卫宁pick老牌芯片巨子英特尔的最新一代至强,也是从性能、行业、人才、到本钱等一系列成分深入考量之后所做出的较优解;而从结果上来看,CPU也正在实实在在地助力着LLM在医疗领域大展拳脚。
以是,到了本日,我们会溘然创造,一个故意思的新趋势是:CPU成了大模型落地的另一种解法。
更多CPU支持的AI驱动医疗信息整合办理方案内容,请通过“下方链接”获取。
https://www.intel.cn/content/www/cn/zh/artificial-intelligence/winning-health-nlp-post-structured-platform.html?cid=soc&source=Wechat&article_id=5328
— 完 —
量子位 QbitAI · 号签约
关注我们,第一韶光获知前沿科技动态
本文系作者个人观点,不代表本站立场,转载请注明出处!