生成式 AI 关键术语解释_模子_措辞
图片由作者供应
在过去的几年里,特殊是自 ChatGPT 在 12 个多月前涌现以来,用于创建逼真的合成文本、图像、***和音频的天生式 AI 模型已经涌现,并且此后一贯在迅速发展。最初是不起眼的研究,很快就发展成为能够在上述各种媒介上产生高质量、类似人类输出的系统。特殊是在神经网络的关键创新和打算能力大幅提高的推动下,越来越多的公司现在供应免费和/或付费访问这些模型,这些模型的能力以惊人的速率增长。
然而,天生式人工智能并不全是彩虹和小狗。虽然在各种运用中增强人类创造力的前景广阔,但人们仍旧担心如何精确评估、测试和负任务地支配这些天生系统。与缺点信息的传播有关,以及对这种技能带来的偏见、真实性和社会影响的担忧,尤其令人不安。
然而,任何新技能要做的第一件事便是在我们利用或批评它之前考试测验理解它。开始这样做是我们在本文中计划的内容。我们打算列出一些关键的天生式人工智能术语,并尽最大努力让初学者在直不雅观的水平上理解它们,以便供应根本并为未来更深入的学习铺平道路。本着这种精神,对付下面的每个关键术语,您将找到干系材料的链接,以便根据须要开始进一步调查。
现在让我们开始吧。
自然措辞处理自然措辞处理 (NLP) 是一个 AI 子领域,专注于通过以编程办法为这些机器供应所需的工具,使机器能够理解、阐明和天生人类措辞。NLP弥合了人类互换和打算机理解之间的差距。NLP 首先采取基于规则的方法,其次是“传统”机器学习方法,而当本年夜多数尖端 NLP 都依赖于各种神经网络技能。
神经网络神经网络是受人脑启示(而不是复制品)的机器学习打算模型,用于从数据中学习。神经网络由人工神经元的层(多层=深度学习)组成,这些神经元处理和传输小的单个数据,使这些数据适应功能,并重复更新与处理神经元干系的权重,以试图将数据“更好地拟合”到功能中。神经网络对付当今人工智能的学习和决策能力至关主要。如果没有十多年前开始的深度学习革命,我们所说的人工智能就不可能实现。
天生式 AI天生式人工智能是一类人工智能,由神经网络供应支持,专注于创建新内容。这些内容可以采取多种形式,从文本到图像再到音频等等。这与“传统”类型的人工智能不同,后者专注于对现有数据进行分类或剖析,表示了基于演习数据“想象”和天生新内容的能力。
内容天生内容天生是经由演习的天生模型天生合成文本、图像、***和音频的实际过程,利用从演习数据中学习的模式,天生高下文干系的输出以响运用户输入或提示。这些提示也可以采取上述任何形式。例如,文本可以用作天生更多文本的提示,或者根据文本描述天生图像,或者代替一段音频或***。同样,图像可以用作天生另一个图像、文本或***等的提示。多模态提示也是可能的,例如,可以利用文本和图像来天生音频。
大型措辞模型大型措辞模型 (LLM) 是专门的机器学习模型,专为处理和“理解”人类措辞而量身定制。LLM 在大量文本数据上进行演习,这使他们能够剖析和复制繁芜的措辞构造、细微差别和高下文。无论利用哪种确切的LLM模型和技能,这些模型的全部实质是学习和预测下一个单词或标记(字母组)跟随当前的内容,依此类推。LLM 实质上是非常繁芜的“下一个单词预测器”,正如您可能听说过的那样,改进下一个单词预测是目前一个非常热门的研究课题。
根本模型根本模型是设计具有广泛功能的 AI 系统,然后可以适应各种特界说务。根本模型为构建更专业的运用程序供应了根本,例如针对特定谈天机器人、助手或其他生成功能调度通用措辞模型。然而,根本模型并不局限于措辞模型,还存在于图像和***等天生任务中。众所周知和依赖的根本模型的例子包括 GPT、BERT 和 Stable Diffusion。
参数在这种情形下,参数是定义模型构造、操作行为以及学习和预测能力的数值。例如,OpenAI 的 GPT-4 中的数十亿个参数会影响其单词预测和对话创建能力。从技能上讲,神经网络中每个神经元之间的连接都带有权重(如上所述),每个权重都是一个模型参数。→的神经元越多,权重就越多→参数就越多,→(演习有素的)网络学习和预测的能力就越大。
词嵌入单词嵌入是一种技能,个中单词或短语被转换为预天命量维度的数字向量,试图在多维空间中捕获它们的含义和高下文关系,其大小远小于对词汇表中的每个单词(或短语)进行一次性编码所需的大小。如果要创建一个包含 500,000 个单词的矩阵,个中每一行都是为单个单词创建的,并且该行中的每一列都设置为“0”,除了表示干系单词的单个列之外,该矩阵将是 500,000 x 500,000 行 x 列,并且非常稀疏。这对存储和性能来说都是一场灾害。通过将列设置为介于 0 和 1 之间的各种小数值,并将列数减少到 300(维度),我们拥有了更加集中的存储构造,并且实质长进步了操作性能。作为副浸染,通过神经网络学习这些维度嵌入值,相似术语的维度值将比不同术语“更靠近”,从而为我们供应对相对单词含义的见地。
变压器型号Transformer 模型是同时处理全体句子的 AI 架构,这对付节制措辞高下文和长期关联至关主要。它们善于检测单词和短语之间的关系,纵然在句子中相距很远也是如此。例如,当“她”在文本块的早期被确立为名词和/或代词,指的是一个特定的个体,转换器能够“记住”这种关系。
位置编码位置编码是指转换器模型中有助于保持单词顺序的方法。这是理解句子内和句子之间高下文的关键组成部分。
从人类反馈中强化学习来自人类反馈的强化学习 (RLHF) 是指一种演习 LLM 的方法。与传统的强化学习(RL)一样,RLHF演习和利用褒奖模型,只管这个模型直接来自人类反馈。然后,通过利用优化算法将褒奖模型用作LLM演习中的褒奖函数。该模型在模型演习期间明确地让人类处于循环中,希望人类反馈能够供应优化的 LLM 所需的基本反馈,否则可能无法实现。
紧急行为紧急行为是指大型繁芜措辞模型所表现出的意想不到的技能,这些技能在更大略的模型中没有显示出来。这些意想不到的技能可以包括编码、音乐创作和小说写作等能力。这些技能没有明确地编程到模型中,而是从其繁芜的架构中产生。然而,新兴能力的问题可以超越这些更常见的技能;例如,生理理论是一种呈现行为吗?
幻觉幻觉是指 LLM 由于数据和架构的限定而产生事实禁绝确或不合逻辑的反应。只管模型具有任何高等功能,但当碰着在模型的演习数据中没有根本的查询时,以及当模型的演习数据包含禁绝确或非事实信息时,仍旧可能发生这些缺点。
拟人论拟人化是将类似人类的品质归因于人工智能系统的方向。须要把稳的是,只管它们能够模拟人类的情绪或措辞,并且我们本能地将模型视为“他”或“她”(或任何其他代词),而不是“它”,但人工智能系统并不拥有觉得或意识。
偏见偏见是人工智能研究中的一个术语,可以指代许多不同的事物。在我们的高下文中,偏差是指由偏斜的演习数据导致的 AI 输出错误,导致不准确、搪突性或误导性的预测。当算法将不干系的数据特色优先于故意义的模式,或者完备缺少故意义的模式时,就会涌现偏差。
Matthew Mayo(@mattmayo13)拥有打算机科学硕士学位和数据挖掘研究生文凭。作为KDnuggets的主编,Matthew的目标是使繁芜的数据科学观点变得易于理解。他的专业兴趣包括自然措辞处理、机器学习算法和探索新兴人工智能。他的义务是使数据科学社区的知识民主化。Matthew从6岁起就开始编程。
原文标题:Generative AI Key Terms Explained
原文链接:https://www.kdnuggets.com/generative-ai-key-terms-explained
作者:Matthew Mayo
编译:LCR
本文系作者个人观点,不代表本站立场,转载请注明出处!