Ai名词解释大年夜全 假如真想学Ai起码要对这些有理解_名词_模子
Ai名词阐明大全 如果真想学Ai最少要对这些有理解
AI人工智能名词阐明:Artificial Intelligence,即人工智能,1956年于Dartmouth学会上提出,一种旨在以类似人类反应的办法对刺激做出反应并从中学习的技能,其理解和判断水平常日智能在人类的专业技能中找到。AI因具备自主学习和认知能力,可进行自我调度和改进,从而应对更加繁芜的任务。
AGI
通用人工智能
名词阐明:Artificial General Intelligence(GI),通用人工智能,是具备与人类同等智能、或超越人类的人工智能,能表现正凡人类所具有的所有智能行为。别号强人工智能。
ASI人工超级智能
名词阐明:Artificial Super Intelligence(ASI),只管存在争议,但ASI常日被定义为超越人类思维能力的人工智能。
ANI狭义人工智能
名词阐明:Artificial Narrow Intelligence(ANI),狭义的人工智能,即专注一件事的 AI,如下围棋的AlphaGo。别号弱人工智能。
AIGC
人工智能天生内容
名词阐明:全称"AI generated content”,意为人工智能天生内容,是种内容生产形式。例如AI笔墨续写,笔墨转像的AI图、AI主持人等,都属于AIGC的运用。
Accelerator加速器
名词阐明:一类旨在加速人工智能运用的微处理器!
Agents: 代理
名词阐明:Agent(智能体)= 一个设定了一些目标和任务,可以选择行动的模型。这个大型措辞模型(LLM)在像ChatGPT这样的工具中的“智能体”的利用办法不同。在ChatGPT中,你提问一个问题并得到一个答案作为回应。而Agent拥有更多的事情流程,模型实质上可以自我决策,而无需人类逐步的交互。
Alignment: 对齐名词阐明:人工智能对齐(英语:AI alignment)是指勾引人工智能系统的行为,使其符合设计者的利益和预期目标。一个已对齐的人工智能的行为会符合预期的发展;而未对齐的人工智能的行为虽然也具备存活能力,但其目标并非设计者所期望的。
Attention: 把稳力
名词阐明:在神经网络的高下文中,把稳力机制帮助模型在处理输入时专注于干系部分。
Backpropagation: 反向传播
名词阐明:"偏差反向传播"的简称,是一种用于优化(如梯度低落)结合利用的,用来演习人工神经网络的算法。该方法打算每个神经元连接权重的贡献,用于更新权重以最小化演习偏差。
Bias: 偏差
名词阐明:AI模型对数据所做的假设。“偏差方差权衡”是模型对演习数据的倾向与测试数据的泛化之间必须实现的平衡。偏差衡量了模型学习到的预测与真实值的偏离。
CLIP: 比拟措辞图像预演习
名词阐明:CLIP(Contrastive Language-Image Pretraining),由OpenAI开拓的AI模型,用于连接图像和文本,匆匆使智能理解和天生图像描述。
CNN: 卷积神经网络
名词阐明:Convolutional Neural Network (CNN),一种深度学习模型,通过运用一系列过滤器来处理构造化数据(例如图像)的数据。这类模型常日用于图像识别任务。
CV: 打算机视觉名词阐明:打算机视觉(Computer vision)是一门研究如何使打算机“看”的科学,更进一步的说,便是指用摄像机和打算机代替人眼对目标进行识别、跟踪和丈量、处理图像,并进一步做图像的识别、用打算机处理成为更适宜人类视觉系统吸收的图像或图像。
ChatGPT: ChatGPT
名词阐明:ChatGPT是OpenAI开拓的人工智能谈天机器人系统,于2022年11月推出。该程序利用基于GPT-3.5、GPT-4架构的大型措辞模型处理人类的笔墨对话。
Chatbot: 谈天机器人
名词阐明:一种打算机程序,旨在通过文本或语音回答用户的查询。谈天机器人常日利用自然措辞处理技能理解用户输入并供应相应的应答。
CoT: 思维链提示名词阐明:思维链提示(CoT, Chain-of-thought)通过提示 LLM 天生一系列小步骤来增强 LLM 的推理能力,这些中间步骤将繁芜多步骤问题的答案链起来。该技能自谷歌研究职员于 2022 年春季发布以来得到广泛运用。
Compute: 打算
名词阐明:用于演习或运行 AI 模型的打算资源(如 CPU 或 GPU 韶光)。
Connectionism: 连接主义
名词阐明:连接主义(Connectionism)也被称为神经网络学习的AI,紧张不雅观点是,知识在大量分散的处理单元(即神经元)中存储,连接这些单元的权重决定了知识的性子。连接主义强调知识表示的并行和分布式特性,而非集中式知识表示的符号系统。连接主义AI以大规模并行处理和模糊逻辑为根本,通过仿照人脑神经网络的构造和功能来进行学习和影象。
Cross-modal generalization: 跨模态泛化
名词阐明:"跨模态泛化"(cross-modal generalization)是一种跨学习范式,指的是模型能够在不同模态(如视觉、听觉、触觉)之间进行知识的迁移和运用。跨模态学习对人类感知的基本事理进行了建模,由于它涉及了多个模态之间的信息共享与领悟。
Data Augmentation: 数据增强
名词阐明:通过添加和变换数据的微修正或伪变动用来演习模型的多样性的过程。
Deep Learning: 深度学习名词阐明:深度学习是机器学习的分支,是一种以人工神经网络为架构,对深层特色进行逐层学习的过程。深度学习中的许多层次"深层特色"是指网络中间层。
DeepMind: DeepMind公司名词阐明:DeepMind是一家英国的人工智能公司,公司创建于2010年,最初名称为DeepMind科技,在2014年被谷歌收购。DeepMind于2014年开拓了第一个人工智能围棋软件AlphaGo,2016年3月降服李世石(李世乭)9段,震荡天下。
Diffusion Models: 扩散模型名词阐明:机器学习中,扩散模型通过逐步添加噪声的办法进行演习的神经网络,但其对抗扩散的部分需耗费大量打算资源。
Double Descent: 双降名词阐明:机器学习中的一种征象,某种模型性能的显著性提升和极大低落,然后再次提升。
Embedding: 嵌入名词阐明:让我们换一种办法来思考,假设你在玩一个叫“猜词”的游戏。你的目标是描述一个词,而你的朋友们猜词。你不会直截了当地说出这个词,而是用这个词的某些特点来描述。这样做的目的是让你的朋友们更随意马虎理解这个词。对付机器学习来说,这种描述就叫“嵌入”。
Emergence: 呈现名词阐明:呈现(英语:emergence)或称呈现、突现、显现、涌显,是一种征象,指为许多小组件/浸染/后产生的大整体,而这个大整体展现了其余的性子或特色。
End-to-End Learning: 端到端学习名词阐明:一种不须要手动设计功能的端到端学习模型。该模型只是供应输入数据,并期望从这些输入中学习。
Expert Systems: 专家系统名词阐明:人工智能技能的一种,为特定领域的繁芜问题供应办理方案。
Few-Shot: 小样本学习(En)名词阐明:小样本学习/小量样本学习(low-shot learning),其目标是从少量样本中学习模型识别的能力。小样本学习包括小样本学习(few-shot learning)和零样本学习(zero-shot learning)等。零样本学习是指模型在没有演习数据的情形下,利用类比的知识推断出新的数据。
Fine-Tuning: 微调(En)名词阐明:微调是迁移学习中的一种常用技能。目标模型受到预演习的根本模型的参数影响,并基于目标数据集和特界说务进行少量演习以适应任务。
Fitting: 拟合名词阐明:在机器学习和统计学中,拟合(fitting)是指利用模型学习数据的过程。目标是使模型能够只管即便贴近数据中的趋势,同时也避免一些问题,无法预测的趋势。
Forward Propagation: 前向传播名词阐明:在神经网络中,前向传播输入数据从输入层通过神经元通报到下一层(从输入层到隐蔽层,末了到输出层)以产生输出结果。网络构造的相应会随层次通报,并利用前向传播进行推理输出。
Foundation Model: 根本模型名词阐明:在广泛规模上演习的大型模型,它旨在完成多任务。
GAN: 通用对抗网络名词阐明:Generative Adversarial Network (GAN),一种机器学习模型,用于天生类似于真实数据的新数据。它利用两个神经网络相互对抗:“一个天生器”,创造新数据,另一个鉴别器“被演习区分真假数据”。
GPT-4: GPT-4名词阐明:Generative Pre-trained Transformer 4,缩略GPT-4,是由OpenAI公司开拓于2023年3月14日发布的自回归措辞模型。GPT-4的表现被认为超过了OpenAI之前发布的GPT-3和GPT-3.5模型。
GPU: 图形处理单元名词阐明:GPU(Graphics Processing Unit),一种分外类型的处理器,紧张用于快速渲染图像并输出显示器。GPU 在实行演习和运行深度神经网络的打算任务方面也非常高效。
Generalization ability: 泛化能力名词阐明:泛化能力(generalization ability)的含义。在机器学习中,一个模型的泛化能力是指其在未见过的数据上的表现能力。
Generalize: 广义化名词阐明:广义化(英语:Generalize),又称一样平常化、通解化、普遍化、观点化,与之相对应的意义分外化,指的是广义化将特定观点从特定范畴中引申出来以用于更加广泛的范畴。通过广义化的过程,某些观点可以从特定领域上升为一个更广泛的观点。一个标志性广义化的例子是广义化。
Generative AI / Gen AI: 天生式AI名词阐明:AI 的一个子集,专注于创建新内容,这些内容可以根据现有数据的模式天生,比如图像、音乐或文本。
Gradient Descent: 梯度低落名词阐明:在机器学习中,梯度低落是一种优化方法,根据模型对数据的最大改进方向逐渐调度模型的参数。例如,在递迭回归中,梯度低落通过反复调度模型参数和比较偏差从而帮助找到最佳的参数。
Hallucinate: 幻觉名词阐明:在人工智能的背景下,幻觉是指模型天生的内容不是真实或不符合现实时的征象。
Hidden Layer: 隐蔽层名词阐明:神经网络中不直接连接到输入或输出的人工神经元层。
Hyperparameter Tuning: 超参数调优名词阐明:为机器学习模型选择超参数(不是从数据中学习的参数)选择最佳值的过程。
Inference: 推理名词阐明:利用经由演习的机器学习模型进行预测的过程。
Instruction Tuning: 指令调优名词阐明:机器学习中的一种技能,个中模型根据指令集中给出的特定指令进行微调。
Knowledge Distillation: 知识蒸馏名词阐明:数据蒸馏旨在将模型的一个弘大的数据集浓缩天生一个小型数据集,使得学生模型的演习效率增加,和在原数据集上演习的模型表现相似。特殊是根本模型至微型模型的过程。它可以帮助将较大模型转化为较紧凑的轻量模型的过程,帮助缩小模型的打算开销,提升推理效率。
LLM: 大措辞模型(En)名词阐明:large language model (LLM)大措辞模型是具有许多参数(常日为数十亿或数百亿)的措辞模型,利用自监督学习学习大量的未标记文本进行演习。
LSTM: 是非期影象名词阐明:是非期影象(英语:Long Short-Term Memory,LSTM)是一种回归神经网络(RNN),论文首次揭橥于1997年。由于其独特的设计构造,LSTM适宜于处理连续韶光序列中的问题和影象非周期长的关键事宜。
Latent Space: 潜在空间名词阐明:在机器学习中,该术语是指模型(如神经网络)创建的数据的压缩表示。类似的表示在空间中更靠近。
Loss Function: 丢失函数名词阐明:Loss Function (or Cost Function) 也叫本钱函数,机器学习模型在演习期间试图使最小化的函数。它量化了模型的预测与真实值的偏离。
Machine Learning: 机器学习名词阐明:机器学习是人工智能的一个分支。人工智能的研究内容有许多被归为“难题” 为目标,用到“学习”为其自然、自适应、逐渐的移植、显现。机器学习是实现人工智能的一个路子之一,即以机器学习为手段,将融入人工智能的部分问题。
Mixture of Experts: 专家稠浊名词阐明:一种机器学习技能,个中演习多个“专家”,并从这些专家输出的办法组合它们的预测。
Multimodal: 多模态名词阐明:在人工智能中,这是指可以理解和天生多种类型(如文本和图像)信息的模型。
NLP: 自然措辞处理名词阐明:NLP是人工智能和措辞学领域的分支学科,此领域磋商如何处理及利用自然措辞;自然措辞处理包括语音识别,基本有认知,理解,天生等部分。
NeRF: 神经辐射场名词阐明:NeRF(Neural Radiance Fields),一种利用神经网络从2D图像创建3D场景的办法。它可用于渲染真实的渲染、***和合成。
Neural Network: 神经网络名词阐明:一种受人脑启示的人工智能模型。它由连接着节点(称为神经元)的多层组成。神经元通报旗子暗记,对它们进行一系列打算,并产生输出。
Objective Function: 目标函数名词阐明:机器学习模型在演习期间试图探求大化或最小化的函数。
OpenAI: OpenAI公司名词阐明:OpenAI是美国一个人工智能研究实验室,由非营利组织OpenAI Inc. 和营利组织OpenAI LP所组成。OpenAI进行AI 研究的目的在于发展友好的人工智能,使人类整体受益。该公司由Sam Altman.
Overfitting: 过拟合名词阐明:过拟合(overfitting)是机器学习中的一个常见问题,发生在模型学习了太多,偏差低落在演习期间显著降落,但在处理新数据时表现不佳。
Paradigm: 范式名词阐明:在科学哲学中,该术语是由托马斯·库恩(Thomas S. Kuhn)在其著作《科学革命的构造》中提出并广泛谈论的,指一种描述科学研究的基本理论和方法的范例例子。范式定义了科学研究的基本框架,并影响研究者如何看待天下和进行研究。
Parameters: 参数名词阐明:在机器学习中,参数是模型用于进行预测的内部变量。它们是在演习数据中从演习数据中学习的。例如,在神经网络中,权重值便是参数。
Pre-training: 预演习名词阐明:演习机器学习模型的初始阶段,个中模型从数据中学习一样平常特色,而不是特定于目标任务的特色。这种预演习供应了一个很好的初始点,使得模型可以更有效地学习目标任务的特定特色。这些特色用于模型的微调,以实行特界说务。
Prompt Engineering: 提示工程名词阐明:它是人工智能的一个观点,特殊是涉及到自然措辞处理(NLP)。在提示工程中,任务的描述通过输入给模型。提示工程的紧张事情办法是设计一个或多个任务的描述,提示词可以是完全的查询或单个关键词。
RAG: 检索增强天生名词阐明:RAG(Retrieval-augmented generation)检索增强天生。
RLHF: 基于人类反馈的强化学习名词阐明:在机器学习中,人类反馈强化学习(RLHF)或人类反馈强化学习是一种直接根据人类反馈褒奖模型学习来调度模型行为的技能。通过人类反馈,模型能够更有效地学习繁芜的任务。
RNN: 循环神经网络名词阐明:循环神经网络(Recurrent neural network: RNN)是神经网络的一种,个中的RNN因无法处理跨层级数据。权重连接数影响参数学习的问题,难以捕捉长期韶光关联;而结合不同的模型LSTM则很好办理这个问题。
Regularization: 正则化名词阐明:在机器学习中,正则化是一种通过增加约束或惩罚项来防止模型过度拟合的技能。这种技能帮助模型在演习数据中表现更好,并提高其在处理未见数据时的泛化能力。
Reinforcement Learning: 强化学习名词阐明:强化学习(Reinforcement learning,简称RL)是机器学习中的一个领域,强调如何在环境中采纳行动,以得到最大化的累积褒奖。强化学习模型通过与环境的交互学习,从履历中学习并改进其行为。
Singularity: 奇点名词阐明:在人工智能的背景下,奇点(也称为技能奇点)是一种假设未来韶光点,当技能进步达到不可掌握和不可逆转时,导致人类文明发生不可预见的变革。
Supervised Learning: 监督学习名词阐明:监督学习是机器学习的一种方法,可以演习模型中学习到创建一个模式(函数/learning model),并在供应模型的示例,并根据供应的学习目标(标签/target)给出输出结果。
Symbolic AI: 符号主义名词阐明:符号主义也被称为基于规则的AI或逻辑主义,它利用符号和规则来表示知识。符号主义的基本假设是,所有的知识和推理都可以用符号和规则来表示。这种方法在自然措辞处理、知识表示和推理等领域中得到广泛运用。符号主义的优点是能够清晰地表示知识和逻辑关系,缺陷是难以处理不愿定性和繁芜性。
System1 /System2: 系统1/系统2名词阐明:思考与决策由诺贝尔奖得主提出的系统1和系统2的理论系统。系统1是一种快速的无意识的决策系统。而系统2是慢速的故意识的决策系统。两者是人在决策时常常利用的思考办法。
TPU: 张量处理单元名词阐明:谷歌开拓的专用途理单元,专门用于加速机器学习事情负载。
TensorFlow: TensorFlow名词阐明:由Google开拓的开源机器学习平台,用于构建和演习机器学习模型。
Token: 标记/词元名词阐明:token 的打算工具:
atGPT的对话中,"token"是指一个字符文本输入的单位,它可以是一个单词,一个标点符号。
Training Data: 演习数据名词阐明:用于演习机器学习模型的数据集。
Transfer Learning: 迁移学习名词阐明:机器学习中的一种方法,个中对新问题利用先前演习的模型。
Transformer: Transformer模型名词阐明:Transformer模型(直译为“变换器”)是一种深度学习模型的深度学习模型,这一模型可以透过神经网络捕捉句子的更多细节和不同句子之间的联系。该模型紧张用于自然措辞处理(NLP)与打算机视觉(CV)等领域。
Turing test: 图灵测试名词阐明:图灵测试是英国著名科学家艾伦·图灵在1950年提出的测试,目的是测试机器能否表现出与人一样的智能力或能力。测试的过程包括让人类判断机器天生的措辞是否由人类天生。
Underfitting: 欠拟合名词阐明:欠拟合是指模型过于大略,不能够捕捉到数据中的基本构造和模式。欠拟合的模型在演习数据和新的、未见过的数据上的表现常日都不好。例如,如果我们拟合一条直线(线性模型)来拟合一组呈现非线性模式的数据,那么我们可能会得到一个欠拟合的模型。
Unsupervised Learning: 无监督学习名词阐明:无监督学习是机器学习的一种方法,指没有给定样本标记的情形下,通过对数据进行分类学习。无监督学习的目标是创造数据中的构造。常见的无监督学习方法包括聚类剖析(cluster analysis)、关联规则(association rule)、维度缩减(dimensionality reduce)。它是机器学习和统计学的分支之一。
Validation Data: 验证数据名词阐明:机器学习中利用的数据集的一部分,独立于演习数据集和测试数据集。它用于调度模型的超参数(例如权重),而不是模型。
Vector: 向量名词阐明:向量,物理,工程等也称作矢量,是欧几里得向量(Euclidean vector),是数学、物理学和工程科学等学科的基本观点。指一个同时具有大小和方向的量。向量是平行于某方向的一段有向线段。理论上向量可以有无穷多的维数。一样平常地,向量是由具有大小和方向两个性子的向量组成。向量在空间中的表示常日为箭头。向量可以表示许多物理量,如速率、力和加速度等。
Vector Database: 向量数据库(En,非线量百科)名词阐明:向量数据库(Om-iBASE)是基于高维查找须要存储向量的特色值,转变为大小+定义。特色值、空间向量的多维数值值打包在向量存储的集成值,使内容不仅被存储,同时对数据能聚合与剖析。
Weight: 模型权重名词阐明:模型权重,在深度学习中,模型权重(weights)是指神经网络中的参数,这些参数用于调度和学习模型的行为,以使得模型在给界说务上表现良好。模型权重是通过演习数据中调节而得到的。深度学习模型的权重由许多参数和连接参数组成,而权重紧张是通过神经元之间通报旗子暗记的参数。
XAI: 可阐明的人工智能名词阐明:Explainable AI (XAI),人工智能的一个子领域专注于创造透明的阐明,为其决策供应明确的阐明。
Zero-Shot: 零样本学习(En)名词阐明:零样本学习(ZSL)是一种机器学习范例,模型在没有演习样本的情形下能够进行分类。其思路是将演习集的样本投影到向量空间中,并将其与测试集的样本向量进行比较。简言之,零样本学习的目标是利用演习集的特色和分类知识,办理未见过的新类别的分类问题。
本文系作者个人观点,不代表本站立场,转载请注明出处!