小编

NVIDIA靠边站!苹果AI转投谷歌TPU芯片进行演习_模子_苹果 绘影字幕

在一份最新发布的研究论文中,苹果详细描述了其iPhone和其他产品的人工智能功能演习能力,并透露了一个主要信息:苹果选择依赖谷歌的芯片,而非市场领导者NVIDIA的GPUs。
这一决定对付NVIDIA来说无疑是一个意外,由于其市值和业务的快速增长紧张得益于对GPUs的强烈需求。
苹果的研究论文显示,其拥有27.3亿参数的苹果根本模型(AFM)是依赖于常日由Alphabet Inc的谷歌供应的v4和v5p张量处理单元(TPU)云集群进行演习的。
这表明,苹果在AI方法的实现上,选择了TPUs作为GPUs的替代品。
论文涵盖了苹果AI模型的演习根本举动步伐和其他细节,这些模型将支持今年早些时候在WWDC上宣告的功能。
苹果此前已宣告了设备上的AI处理和云处理,而这些AI功能的核心正是被称为AFM的苹果根本模型。
对付做事器上的AFM,或称为Apple Cloud Compute的云端AI功能模型,苹果透露,它在“8192个TPUv4芯片”上“从头开始”演习了一个6.3万亿token的AI模型。
这些TPUv4芯片以每组4096个的形式供应,显示了谷歌在AI演习芯片领域的实力。
此外,苹果还表示,无论是设备上的还是云真个AFM模型,都在TPUv4芯片和v5p Cloud TPU集群上进行演习。
v5p是谷歌Cloud AI“超级打算机”的一部分,其供应的每秒浮点运算次数(FLOPS)是TPU v4的两倍,内存是三倍,能够将近快三倍的速率演习模型。
对付设备上的AI模型,用于写作和图像选择等功能,苹果利用了一个64亿参数的模型,该模型也采取了与AFM-server相同的演习配方。
不过,在设备上AFM模型的演习中,苹果选择了更新的v5p芯片,详细利用了2048个TPU v5p芯片进行演习。
论文还分享了苹果对模型性能的评估结果,包括模型对有害相应、敏感话题、事实精确性、数学表现以及人类对模型输出的满意度等方面的评估。
据苹果称,AFM做事器和设备上的模型在抑制有害输出方面均领先于行业同行。
例如,与OpenAI的GPT-4比较,AFM做事器的有害输出违规率为6.3%,远低于GPT-4的28.8%。
同样,设备上AFM的7.5%违规率也低于Llama-3-8B(由Facebook的母公司Meta演习)的21.8%。
在电子邮件、和关照择要方面,设备上的AFM也表现出了领先的满意度百分比,分别为71.3%、63%和74.9%。
研究论文指出,这些结果均领先于Llama、Gemma和Phi-3模型。
END