你应该知道的10个AI术语_模子_人工智能
本日,让我们通过对一些热门人工智能术语的解析,帮助大家快速理解干系领域中的最新知识。
1️⃣ 推理(Reasoning)和方案(Planning)
人工智能可以通过从历史数据中学到的模式和规律来理解信息,从而办理问题并完成任务。这种能力类似于人类的推理过程,即基于已有的知识和履历剖析、判断新情形。更前辈的 AI 系统还可以展示出更进一步的能力,通过制订操持、设计一系列行动来实现目标,从而办理更加繁芜的问题。比如,当你让一个 AI 程序帮忙组织一次主题公园之旅时,AI 会利用推理能力将你提出的目标需求——嬉戏六项游乐举动步伐并在中午嬉戏水上项目,分解成详细步骤,并在确保行程连贯性的同时避免走转头路。
2️⃣ 演习(Training)与推断(Inference)
创建和利用一个 AI 系统包含两个关键步骤:演习和推断。“演习”便是 AI 系统的“学习过程”,在这一阶段,AI 会被“投喂”一个数据集,并基于这些数据学习如何去实行任务或做出预测。例如,给 AI 某社区内最近售出房屋的价格列表,以及每套房屋的寝室和浴室数量等多个变量。在演习阶段,AI 会调度其内部参数来决定每个成分在影响终极定价时的权重。在推断阶段,AI 则可以利用它学到的模式和参数,对即将上市的新居价格进行预测。
3️⃣ 小措辞模型(SLM/small language model)
小措辞模型(SLMs)是大措辞模型(LLMs)的袖珍版。两者都是利用机器学习技能来识别模式和关系,从而天生逼真的自然措辞回答。但大措辞模型规模弘大,须要大量的算力和内存支持,而小措辞模型,如 Phi-3 等,则可以在更小、更精心挑选的数据集上进行演习。小措辞模型参数较少,因此更加紧凑,乃至可以在没有互联网连接的情形下离线利用。这使得小措辞模型对付条记本电脑或手机等设备上的运用程序十分友好,在这些设备上,你可能只想讯问一些关于宠物照顾护士的基本问题,而不是如何演习导盲犬这种繁芜、多步骤的推理问题。
4️⃣ 锚定(Grounding)
天生式人工智能可以创作故事、诗歌和笑话,也可以回答研究问题。但它们有时在区分事实与虚构方面会面临寻衅,或者会由于演习数据已经由时而导致回应不准确,这种征象也被称为“幻觉”。以是,研发职员致力于通过锚定过程帮助人工智能更准确地与现实天下互动,他们将模型与数据和详细实例相连接并锚定,以此提高人工智能的准确性并产生更具高下文干系性和个性化的输出。
5️⃣ 检索增强天生(RAG)
当研发职员为人工智能供应根本资源以帮助其更加准确和及时进行回合时,他们会采取一种名为“检索增强天生”(Retrieval Augmented Generation,简称 RAG)的方法。RAG 能够在不重新演习 AI 模型的根本上为其添加新的知识,从而节省韶光和资源。这就好比你是福尔摩斯,已经读完了图书馆里的每一本书,但案件仍未告破,于是你走到阁楼,打开了一些古老的卷轴,然后你就找到了拼图中缺失落的碎片。又或者,如果你经营着一家服装公司,想创建一个能够回答公司商品详细问题的谈天机器人,那么你可以在你的产品目录上利用 RAG 模式,以帮助顾客从你的店铺中找到那件完美的绿色毛衣。
6️⃣ 编排(Orchestration)
在处理人们的要求时,人工智能承担着繁重的任务。编排层的浸染是勾引它们按照精确的顺序实行所有任务,以进行最佳相应。例如,如果你向 Microsoft Copilot 讯问 Ada Lovelace 是谁,然后问她何时出生,AI 的编排器会存储谈天历史,以理解你后续查询中的“她”是否指的是 Ada Lovelace。编排层还可以遵照 RAG 模式,在互联网上搜索新的信息添加到高下文中,并帮助模型给出更好的答案。这就像是一位指挥家指挥着小提琴、长笛和双簧管等乐器,按照乐谱演奏,共同产生作曲家心目中的声音。
7️⃣ 影象(Memory)
从技能层面讲,当前的 AI 模型并没有影象。但 AI 程序可以编排指令,通过遵照详细步骤来帮助它们“记住”信息。例如,在谈天中临时存储之前的问题和答案,然后将该高下文包含在模型确当前要求中,或者利用 RAG 模式中的根本数据来确保回答里有最新的信息。研发职员正在对编排层进行试验,希望帮助人工智能判断是否须要暂时记住那些细分步骤(类似短期影象,如在便利贴上写下提醒),或者帮助其判断是否有必要将信息存储在更永久的位置来记住更长的韶光。
8️⃣ Transformer模型和扩散模型(Diffusion model)
几十年来,人们一贯在教 AI 系统如何理解和天生措辞,Transformer 模型的涌现为 AI 技能的发展带来了极大打破。在天生式人工智能的模型中,Transformer 模型无疑是理解和把握高下文及其细微差别最好、最快的模型。它善于讲故事,会关注数据中的模式和规律并权衡不同输入的主要性,以帮助人工智能快速预测接下来的内容,从而天生文本。Transformer 模型之以是名声大噪,是由于它是 ChatGPT 中的 “T”,即“天生式预演习 Transformer”。
另一个模型是扩散模型(Diffusion models),常日用于图像创作。通过更渐进、更系统的方法,扩散模型可以从随机位置扩散像素,直到像素以形成提示中哀求的图像的办法分布。扩散模型在天生终极结果之前会持续进行眇小的调度。
9️⃣ 前沿模型(Frontier models)
前沿模型是打破人工智能界线的大规模系统,能够以全新、更广泛的能力实行各种任务。它们非常前辈,有时乃至能完成令我们惊异的事情。目前,包括微软在内的科技公司成立了一个前沿模型论坛(Frontier Model Forum)[1],旨在分享知识、制订安全标准,并帮助每个人理解这些强大的 AI 程序,以确保人工智能安全、负任务地发展。
GPU
GPU,是图形处理单元 Graphics Processing Unit 的缩写,实质上是一种“涡轮增压”打算器。GPU 最初被设计用于平滑视频游戏中的精美、繁芜图形,现在它们已成为打算机领域的“核心动力车”。这些芯片拥有大量微型核心,或电路和晶体管网络,它们共同办理数学问题,这种处理办法被称为并行处理。由于人工智能的实质便是大规模进行大量打算,以便能够用人类措辞互换并识别图像或声音,以是 GPU 对付 AI 工具的演习和推理都是不可或缺的。目前,最前辈的模型都是用成千上万的 GPU 组成的弘大集群来演习的,这些 GPU 分布在像微软 Azure 所拥有的巨型数据中央里。作为如今最强大的打算机之一,微软 Azure 数据中央可以供应强大的打算支持。
干系阅读:[1] 前沿模型论坛(Frontier Model Forum)https://blogs.microsoft.com/on-the-issues/2023/07/26/anthropic-google-microsoft-openai-launch-frontier-model-forum/
文中配图均由 Makeshift Studios 设计。
本文编译自微软博客:https://news.microsoft.com/source/features/ai/10-more-ai-terms-everyone-should-know/
微软亚洲研究院,专注科研25年,盛产黑科技
欢迎关注~
本文系作者个人观点,不代表本站立场,转载请注明出处!