NVIDIA AI Foundry 若何资助企业打造自定义生成式 AI 模型_模子_自界说
如果企业希望充分发挥出 AI 的力量,就须要根据其行业需求量身定制的自定义模型。
NVIDIA AI Foundry 是一项使企业能够利用数据、加速打算和软件工具创建并支配自定义模型的做事,这些模型将为企业的天生式 AI 项目供应强力支持。
就像台积电制造其他公司设计的芯片一样,NVIDIA AI Foundry 为其他公司供应根本举动步伐和工具,使他们能够利用 DGX Cloud、根本模型、NVIDIA NeMo 软件、NVIDIA 专业知识以及各种生态系统工具和支持,开拓和自定义 AI 模型。
关键的差异在于产品:台积电生产实体半导体芯片,而 NVIDIA AI Foundry 则帮助创建自定义模型。两者都在推动创新,并与弘大的工具和互助伙伴生态系统相连接。
企业可以利用 AI Foundry 自定义 NVIDIA 模型和开放社区模型,包括新推出的 Llama 3.1 系列以及 NVIDIA Nemotron、Google DeepMind 的 CodeGemma、CodeLlama、Google DeepMind 的 Gemma、Mistral、Mixtral、Phi-3 和 StarCoder2 等。
行业领导者推动 AI 创新
行业领导者 Amdocs、Capital One、Getty Images、KT、当代汽车公司、SAP、ServiceNow 和 Snowflake 是 NVIDIA AI Foundry 的首批企业用户。这些领军企业正在企业软件、技能、通信和媒体领域开辟一个由 AI 驱动创新的新时期。
ServiceNow AI 产品副总裁 Jeremy Barnes 表示:“支配 AI 的企业可以通过领悟了行业和业务知识的自定义模型得到竞争上风。ServiceNow 正在利用 NVIDIA AI Foundry 微调和支配可以轻松集成到客户现有的事情流中的模型。”
NVIDIA AI Foundry 的关键支柱
NVIDIA AI Foundry 的关键支柱包括根本模型、企业软件、加速打算、专家支持和弘大的互助伙伴生态系统。
这项做事的软件包括来自 NVIDIA 和 AI 社区的 AI 根本模型,以及能够加速模型开拓的完全 NVIDIA NeMo 软件平台。
NVIDIA AI Foundry 的打算核心是 NVIDIA DGX Cloud,该加速打算资源网络由 NVIDIA 与环球公有云领军企业亚马逊云科技、谷歌云和 Oracle Cloud Infrastructure 共同设计。通过 DGX Cloud,AI Foundry 客户能够以前所未有的便捷和效率开拓和微调自定义天生式 AI 运用,并根据须要扩展他们的 AI 项目,而无需在前期进行大量硬件方面的投入。这种灵巧性对付希望在变化多端的市场中保持灵巧性的企业来说至关主要。
NVIDIA AI Enterprise 专家会在 AI Foundry 客户须要时供应帮助。NVIDIA 专家可以辅导客户完成利用专有数据构建、微调和支配模型所需的各个步骤,确保模型贴合客户的业务需求。
NVIDIA AI Foundry 客户可以进入到一个环球互助伙伴生态系统,以得到全方位的支持。埃森哲、德勤、Infosys、Wipro 等 NVIDIA 互助伙伴将为他们供应 AI Foundry 咨询做事,涵盖设计、履行和管理 AI 驱动的数字化转型项目。埃森哲率先推出了基于 AI Foundry 的自定义模型开拓产品——Accenture AI Refinery 框架。
其余,Data Monsters、Quantiphi、Slalom 和 SoftServe 等做事交付互助伙伴帮助企业办理将 AI 集成到现有 IT 环境中所碰着的繁芜问题,确保 AI 运用的可扩展性、安全性和与业务目标的吻合性。
Cleanlab、DataDog、Dataiku、Dataloop、DataRobot、Domino Data Lab、Fiddler AI、New Relic、Scale、Weights & Biases 等 NVIDIA 互助伙伴还为客户供应用于开拓生产级 NVIDIA AI Foundry 模型的 AIOps 和 MLOps 平台。
客户可以将其 AI Foundry 模型导出为 NVIDIA NIM 推理微做事(包括自定义模型、优化引擎和标准 API),以便在其选择的加速根本举动步伐上运行。
像 NVIDIA TensorRT-LLM 这样的推理解决方案为 Llama 3.1 模型供应了更高的效率,以最大限度地减少延迟和最大限度地提高吞吐量。这使企业能够更快地天生 token,同时降落在生产中运行模型的总本钱。企业级的支持和安全性由 NVIDIA AI Enterprise 软件套件供应。
NVIDIA NIM 和 TensorRT-LLM 最大限度地减少了 Llama 3.1 模型的推理延迟并最大限度地提高了吞吐量,从而更快地天生 token。
它们可支配在多种根本举动步伐上,包括思科、戴尔科技、慧与、遐想、超微等环球做事器制造互助伙伴的 NVIDIA 认证系统以及亚马逊云科技、谷歌云和 Oracle Cloud 的云实例。
此外,领先的 AI 加速云平台 Together AI 宣告,将让其拥有超过 10 万名开拓者和企业的生态系统能够利用 NVIDIA GPU 加速推理堆栈,在 DGX Cloud 上支配 Llama 3.1 端点和其他开放模型。Together AI 创始人兼首席实行官 Vipul Ved Prakash 表示:“每个运行天生式 AI 运用程序的企业都希望得到更快的用户体验,使效率更高,本钱更低。现在,利用 Together Inference Engine 的开拓者和企业可以在 NVIDIA DGX Cloud 上最大化其性能、可扩展性和安全性。”
NVIDIA NeMo 加速并简化
自定义模型开拓
通过集成在 AI Foundry 中的 NVIDIA NeMo,开拓者可以随时利用所需的工具来整理数据、自定义根本模型和评估性能。NeMo 将供应以下技能:
NeMo Curator:一个由 GPU 供应加速的数据管理库,通过为预演习和微调准备大规模、高质量的数据集,提高天生式 AI 模型的性能。NeMo Customizer:一项高性能且可扩展的微做事,可简化针对特定领域用例的 LLM 微调和对齐。NeMo Evaluator:可在任何加速云或数据中央上,利用各种学术和自定义基准测试对天生式 AI 模型进行自动评估。NeMo Guardrails:能够编排对话管理,通过大措辞模型提高智能运用的准确性、适当性和安全性,为天生式 AI 运用供应保障。
借助 NVIDIA AI Foundry 中的 NeMo 平台,企业能够创建出精准知足其需求的自定义 AI 模型。这种定制化与计策目标更加吻合,提高了决策的准确性以及运营的效率。例如企业可以开拓出理解行业术语、符合监管哀求并与现有事情流无缝集成的模型。
SAP 首席人工智能官 Philipp Herzig 表示:“作为我们互助的下一步,SAP 操持利用 NVIDIA 的 NeMo 平台,来帮助企业去加速由 SAP Business AI 驱动的 AI 生产力。”
企业可以通过 NVIDIA NeMo Retriever NIM 推理微做事将其自定义 AI 模型支配莅临盆中。它们可以帮助开拓者获取专有数据,然后通过检索增强天生(RAG)为其 AI 运用天生知识渊博的回答。
Snowflake AI 主管 Baris Gultekin 表示:“安全、可信的 AI 是企业充分利用天生式 AI 的必要条件,而检索的准确性直接影响到 RAG 系统中天生的回答的干系性和质量。通过 NVIDIA AI Foundry 中的 NeMo Retriever 组件,Snowflake Cortex AI 可以利用企业的自定义数据,进一步为企业供应大略、高效和可信的回答。”
自定义模型为企业带来竞争上风
NVIDIA AI Foundry 的一大上风是能够办理企业在采取 AI 时所面临的独特寻衅。通用 AI 模型可能无法知足特定的业务需求和数据安全哀求,而自定义 AI 模型则具有出色的灵巧性、适应性和性能,是企业得到竞争上风的空想路子。
进一步理解 NVIDIA AI Foundry 如何帮助企业提高生产力和创新力:
https://blogs.nvidia.cn/blog/nvidia-ai-foundry-custom-llama-generative-models/
本文系作者个人观点,不代表本站立场,转载请注明出处!