一、人工智能的实质

从AI小白到大年夜神的7个细节:让你开窍逆袭_模子_人工智能 科技快讯

人工智能,简称AI,是一门致力于创造能够仿照人类思维过程的打算机系统的学科。
目前,AI更多地被看作是技能乃至实体,其确切含义颇为模糊,有时也被当作营销术语利用。

多年来,谷歌一贯积极宣扬其在人工智能领域的深入投资。
这不仅表示在其浩瀚产品通过AI技能得到显著提升,也表示在公司推出的诸如 Gemini 这样的智能工具上。
在这些智能工具背后,是一系列根本 AI 模型供应动力,例如 OpenAI 开拓的 GPT 模型。
同时,Meta 的首席实行官马克·扎克伯格(Mark Zuckerberg)也常将人工智能作为个人谈天机器人的代名词。

随着越来越多的企业将人工智能作为其创新的前沿,他们对这一术语及其干系观点的利用可能会变得更加繁芜和多样化。
在阅读有关人工智能的文章或打仗市场营销材料时,您可能会碰着许多专业术语。
为了帮助您更清晰地理解这些术语,本文概述了当古人工智能谈论中的一些关键词汇,归根结底,所有这些努力的核心目标都是推动打算机警能的进一步发展。

请把稳,本文仅对人工智能(AI)的术语供应了一个入门级别的概览。
虽然这些术语本身可能涉及繁芜的科学事理,但本文的目的是简化这些观点,使您能够节制其核心要点。
纵然在面对高度技能性的内容时,您也能够轻松地理解并运用这些根本术语。

二、AI的关键术语

1. 机器学习(Machinelearning)

这是一种让系统在数据上进行演习,从而对新信息做出预测的技能。
机器学习是支撑浩瀚AI技能的基石。
通用人工智能(AGI):与人类智能相称或超越人类的 AI。
OpenAI 等公司正在大力投资 AGI,但许多人对其潜在风险表示担忧——想想我们看过的所有关于超级智能机器接管天下的电影!

2. 天生式AI(GenAI)

一种能够天生新文本、图像、代码等的 AI 技能。
这类工具常日在大量数据上演习,有时会产生幻觉,即缺点地编造答案。

3. 幻觉(Hallucinations)

在某些情形下,AI 可能会产生“幻觉”,即它们会自傲地布局出看似合理的答案,而这些答案可能并非基于事实。
换句话说,这些幻觉(如果我们用更直白的话说,便是无稽之谈)可能导致系统犯下事实性缺点或供应不合逻辑的答复。

关于人工智能的这种幻觉征象是否可以被纠正,学术界和业界都存在一些争议。
一方面,有人认为通过改进算法和演习数据可以减少幻觉的发生;另一方面,也有不雅观点认为,幻觉是AI在考试测验理解繁芜问题时不可避免的一部分,须要我们以更开放的心态来接管和处理。

4. 偏见(Bias)

幻觉并非人工智能领域唯一须要关注的问题。
事实上,这一问题的涌现并不出人意料,毕竟人工智能系统是由人类设计和编程的。
因此,它们可能会在处理数据时反响出演习数据中的偏见。
例如,麻省理工学院媒体实验室的精彩打算机科学家乔伊·布兰维尼(Joy Buolamwini)和分布式人工智能研究所(DAIR)的创始人兼实行董事蒂姆尼特·格布鲁(Timnit Gebru),在 2018 年共同揭橥了一篇具有里程碑意义的论文。
这篇论文揭示了面部识别技能在识别深色皮肤女性时,存在显著的高缺点率问题。

这一创造不仅凸显了人工智能系统中潜在的偏见问题,也引发了对技能公正性和原谅性的主要谈论。
随着人工智能技能的不断发展和运用,确保其算法的公道性和肃清偏见成为了一个亟待办理的环球性寻衅。

三、AI模型的架构

1. AI 模型(AI model)

在数据上演习以实行任务或做出决策的系统。

2. 大型措辞模型(Large language models, or LLMs)

一种能够处理和天生自然措辞文本的 AI 模型。
例如 Anthropic 的 Claude。

3. 扩散模型(Diffusion Models)

演习这些模型的过程非常独特,首先向图像中引入噪声,例如添加静态噪声,然后通过逆向操作,教会 AI 如何从噪声中规复出清晰的图像。
扩散模型的创新之处在于它们能够仿照从有序到无序再到有序的转换过程,通过这种办法,AI不仅学会了识别和理解数据中的模式,还学会了如何创造新的、故意义的内容。

4. 根本模型(Foundation Models)

这类模型通过在海量数据集上进行演习,从而具备了广泛的通用性。
它们的强大之处在于,无需针对特界说务进行定制化演习,即可作为多种运用程序的根本。
这一观点是由斯坦福大学的研究职员在 2021 岁首年月次提出。
OpenAI 的 GPT、Google 的 Gemini、Meta 的 Llama 以及 Anthropic 的 Claude 等,都是根本模型的精彩代表。

此外,许多公司正在将他们的人工智能模型作为多模态模型进行推广,这些模型不仅能够处理单一类型的数据,如文本,还能同时处理图像、***等多种数据类型,知足不同领域和场景的需求。

5. 前沿模型(Frontier Models)

在根本模型的范畴之外,人工智能领域的探索者们正将目光投向所谓的”前沿模型”。
这一术语常日被用作一种营销策略,指代那些尚未公开拓布的、估量在未来推出的模型。
理论上,这些前沿模型在性能和能力上有望远超当前市场上的人工智能模型,它们代表了技能进步的最前沿。

四、AI的演习过程

AI 模型的智能并非与生俱来,而是通过演习得到的。
演习是一个精心设计的过程,AI 模型通过剖析弘大的数据集来学习如何以特定的办法理解数据,从而能够进行预测和识别模式。
例如,大型措辞模型通过“阅读”海量文本进行演习,这使得像 ChatGPT 这样的 AI 工具能够”理解”用户的查询,并天生听起来像人类措辞的答案,以办理用户的问题。

演习常日须要花费大量的资源和打算能力,许多公司依赖于高性能的 GPU 来支持这一过程。
AI 模型可以处理各种类型的数据,包括文本、图像、音乐和***等,这些数据在逻辑上被称为演习数据。

参数是 AI 模型在演习过程中学习的变量,它们决定了模型如何将输入转换为输出。
关于参数的本色,海伦·托纳(Helen Toner)给出了最佳阐明。
她是乔治城大学安全与新兴技能中央的计策和根本研究帮助主任,也是前 OpenAI 董事会成员:

“参数是 AI 模型中的数字,它们决定了如何将输入(比如一段提示文本)转换为输出(比如提示后的下一个单词)。
’演习’ AI 模型的过程包括利用数学优化技能反复调度模型的参数值,直到模型非常善于将输入转换为输出。

换句话说,AI 模型的参数是决定它们供应答案的关键成分。
有时,公司会强调一个模型拥有的参数数量,以此来展示该模型的繁芜性和能力。

五、AI的其他主要观点

1. 自然措辞处理(NLP)

使机器能够理解人类措辞的技能。
OpenAI 的 ChatGPT 便是一个基本示例:它可以理解您的文本查询并天生文本作为相应。
另一个强大的能够进行 NLP 的工具是 OpenAI 的 Whisper 语音识别技能,据宣布,该公司利用它从超过 100万小时的 YouTube ***中转录音频,以帮助演习 GPT – 4。
推理(Inference):天生式 AI 运用实际天生内容的过程。
以 ChatGPT 为例,当用户提出如何制作巧克力曲奇的要求时,AI 能够通过推理天生并分享食谱。
这个过程表示了打算机在实行本地人工智能命令时的能力,它不仅仅是大略的数据处理,而是能够理解、剖析并创造性地天生相应。

推理过程是 AI 模型智能的表示,它涉及到对输入数据的深入剖析,以及对可能的输出结果的预测和天生。
这种能力使得 AI 能够在各种场景中供应有用的、创造性的办理方案,从而极大地扩展了人工智能的运用范围和实用性。

2. 标记(Tokens)

“标记”是指文本中的最小单位,它可以是一个单词、一个词的一部分,乃至是一个单独的字符。
例如,大型措辞模型(LLM)会将输入的文本分解成这些基本的标记单元,以便进行深入剖析。
通过这种办法,模型能够识别和理解标记之间的关系,并据此生成恰当的相应。

模型的”高下文窗口”大小,即它一次能够处理的标记数量,是衡量其繁芜性和处理能力的关键指标。
高下文窗口越大,模型能够考虑的信息就越丰富,从而能够天生更加繁芜和精准的输出。
例如 Kimi 的高下文数量是 20万个汉字,其在处理长文本和繁芜语境时比其他模型更加得当。

3. 神经网络(Neural Networks)

这是一种模拟人类大脑神经元运作办法的打算机架构。
神经网络通过连接的节点处理数据,这些节点在功能上与大脑中的神经元相似。
神经网络对 AI 至关主要,由于它们能够通过学习来识别和理解繁芜的数据模式,而无需依赖于传统的显式编程。

这种能力使得神经网络在许多领域都显示出巨大的潜力,例如在医疗领域,它们可以通过剖析大量的医疗数据来学习识别疾病模式,进而赞助年夜夫做出更准确的诊断。
神经网络的这种自学习能力,不仅提升了人工智能的智能水平,也为办理现实天下中的繁芜问题供应了新的可能性。

4. Transformer 架构

Transformer 是一种前辈的神经网络架构,它利用”把稳力”机制来深入理解序列数据中各个部分之间的相互联系。
这种机制使得 Transformer 能够捕捉词与词之间的细微关系,从而在处理措辞和序列预测任务时表现出色。

以亚马逊的一个实例为例,考虑这样一个输入序列:”天空的颜色是什么?”在这个例子中,Transformer 模型通过内部的数学表示,智能地识别出”颜色”、”天空”和”蓝色”这些词汇之间的干系性和联系。
基于这种理解,模型能够天生一个准确的输出:”天空是蓝色的。

Transformer 不仅在功能上极为强大,其演习速率也优于许多其他类型的神经网络。
自从 2017 年谷歌的前员工揭橥了首创性的 Transformer 论文以来,这种架构已经成为推动天生式人工智能技能发展的关键成分。
事实上,”ChatGPT”中的”T”就代表了 Transformer,这表明了它在我们日常对话和交互中的核心浸染。

5. RAG 技能

RAG 是”检索增强的天生”(Retrieval-Augmented Generation)的缩写,它代表了一种前辈的人工智能技能。
RAG 许可 AI 模型在天生内容时,不仅依赖于其演习数据,还能从外部资源中检索并整合干系信息,从而显著提升天生内容的准确性和可靠性。

例如,当您向一个 AI 谈天机器人提出问题,而该问题超出了它的演习知识范围时,传统模型可能会基于有限的信息产生缺点的推断。
然而,运用了 RAG 技能的模型能够主动查询外部数据源,比如互联网上的其他网站,以获取更全面和准确的信息。
通过这种办法,RAG 帮助 AI 模型利用最新的数据来天生更加精确和有根据的答案。

六、AI 的硬件根本1. 英伟达H100芯片

作为 AI 演习领域广受欢迎的图形处理单元(GPU),H100以其卓越的性能在业界备受青睐。
它被认为在处理 AI 事情负载方面,相较于其他做事器级 AI 芯片具有显著上风。
这种上风使得英伟达在环球范围内对 H100的需求居高不下,进一步巩固了其作为天下上最有代价的公司之一的地位。

2. 神经处理单元(Neural Processing Unit, NPU)

这是一种专为打算机、平板电脑和智好手机等设备设计的专用途理器,它能够高效地实行人工智能推理任务。
苹果公司则利用“神经引擎”这一术语来描述类似的技能。
与传统的中心处理单元(CPU)或图形处理单元(GPU)比较,NPU 在处理各种 AI 驱动的任务时表现出更高的能效比,例如在***通话中实现背景虚化功能。

3. TOPS指标

TOPS,即“每秒万亿次操作(Tera Operations Per Second),是一种衡量芯片处理能力的指标。
技能供应商常常利用这个术语来展示他们的芯片在实行人工智能推理任务时的卓越性能。
TOPS 数值越高,表明芯片在处理繁芜 AI 算法时的速率和效率越强。

七、AI领域的紧张参与者

有许多公司已成为开拓人工智能和人工智能工具的领导者。
有些是根深蒂固的科技巨子,而另一些则是较新的创业公司。
以下是个中的一些参与者:

1. 国外OpenAI / ChatGPT:人工智能领域之以是变得如此主要,ChatGPT 功不可没。
这款由 OpenAI 在 2022 年底推出的 AI 谈天机器人迅速走红,其影响力之大令许多大型科技公司措手不及。
如今,险些所有科技公司都在积极展示他们在人工智能领域的造诣。
Microsoft / Copilot:微软正在将其 AI 助手 Copilot 整合到旗下浩瀚产品中,该助手由 OpenAI 的 GPT 模型供应支持。
这家总部位于西雅图的科技巨子不仅在产品上与 OpenAI 深度互助,还持有其 49%的股份。
Google / Gemini:谷歌正致力于通过 Gemini 为其产品注入动力,Gemini 既是谷歌 AI 助手的名称,也代表了公司开拓的一系列 AI 模型。
Meta / Llama:Meta 的人工智能研发聚焦于 Llama 模型,即大型措辞模型 Meta AI。
与其他科技巨子的闭源模型不同,Llama 是开源的,这使得它在 AI 领域具有独特的地位。
Apple / Apple Intelligence:苹果在其产品中不断加入以 AI 为中央的新功能,这些功能在 Apple Intelligence 的框架下进行开拓。
值得把稳的是,ChatGPT 已被集成到 Siri 中,为用户带来全新的智能体验。
Anthropic / Claude:Anthropic 是由前 OpenAI 员工创立的 AI 公司,其开拓的 Claude AI 模型备受瞩目。
亚马逊已向 Anthropic 投资40亿美元,谷歌也投入了数亿美元,并有可能进一步投资 15 亿美元。
此外,Anthropic 最近聘请了 Instagram 联合创始人迈克·克里格担当首席产品官,这一举措进一步凸显了公司在 AI 领域的年夜志。
xAI / Grok:这是埃隆·马斯克参与的人工智能公司,其开拓的 Grok 作为大型措辞模型备受期待。
该公司最近完成了 60亿美元的融资,显示出其在 AI 领域的强大潜力。
Perplexity:Perplexity 是一家以其人工智能驱动的搜索引擎而有名的公司。
然而,该搜索引擎因其数据抓取行为而受到一些争议。
Hugging Face:作为一个 AI 模型和数据集的目录平台,Hugging Face 为用户供应了一个集中的资源库,以探索和利用各种 AI 技能。

2. 海内百度/文心大模型:百度的文心大模型是一系列知识增强型的人工智能模型,旨在为各行各业的 AI 开拓供应根本和支持,模型覆盖了包括自然措辞处理(NLP)、打算机视觉(CV)和跨模态任务等多个AI领域。
阿里巴巴/通义大模型:阿里巴巴的通义大模型是阿里巴巴达摩院自主研发的超大规模措辞模型,其前身为通义千问,后更名为通义,意为“通情,达义”,通义大模型的运用范围广泛,已在办公、文旅、电力、政务、医保、交通、制造、金融、软件开拓等多个领域进行互助和落地。
腾讯/混元大模型:混元大模型已经与腾讯的多个业务和产品进行了广泛的对接和集成,包括腾讯云、腾讯广告、腾讯游戏、腾讯会议、腾讯文档、微信搜一搜等超过 50个业务和产品。
腾讯还推出了模型即做事(MaaS)办理方案,企业可以通过 API 调用混元大模型,也可以将混元作为基底模型,为不同家就地景构建专属运用。
华为/盘古大模型:盘古大模型具有强大的多模态能力和繁芜逻辑推理能力,盘古大模型 5.0能够理解包括文本、图片、***、雷达、红外、遥感等在内的多种模态,天生符合物理天下规律的多模态内容。
字节跳动/豆包大模型:豆包大模型包含多种类型的模型,如通用模型、角色扮演模型、语音识别模型、语音合成模型、声音复刻模型、文生图模型等。
豆包大模型被运用于字节跳动内部的50多个业务场景,如抖音、番茄小说、飞书、巨量引擎等,用以提升效率和优化产品体验商汤科技/日日新大模型:商汤的日日新 V5.0大模型在多模态能力上全面对标 GPT-4 Turbo,性能在多个评测中达到或超越了 GPT-4 Turbo 版本。
科大讯飞/星火大模型:这是一个具有强大中文处理能力的认知智能大模型,具备文本天生、措辞理解、知识问答、逻辑推理、数学能力、代码能力、多模交互等七大核心能力。

本文由 @阿木聊AI(智能体) 原创发布于大家都是产品经理。
未经作者容许,禁止转载

题图来自Unsplash,基于CC0协议

该文不雅观点仅代表作者本人,大家都是产品经理平台仅供应信息存储空间做事