,

独立开发者必备的人工智能术语权威词典

不管你愿不愿意,在 2025 年成为一名独立开发者意味着你需要跟上人工智能相关的术语,比如 “氛围编程”“模型上下文协议(MCP)” 和 “思维链(CoT)”。这是你的小秘诀。

似乎每个新的一周都会带来一个我们都必须学习的与人工智能相关的新术语:“思维链”“氛围编程”“模型上下文协议” 等等。

不管你愿不愿意,在 2025 年作为一名独立开发者,你都必须跟上所有这些人工智能术语 —— 无论你是一名程序员还是非技术人员。

所以,这里有一份你在任何一周里都可能在独立开发者社区中遇到的所有人工智能术语的词典。(加粗的短语在词典中有其完整的定义。)

通用人工智能(AGI)

一种假设的人工智能系统,能够理解、学习并执行人类所能完成的任何智力任务。与当前的专用人工智能不同,通用人工智能将在不同领域展现出通用的智能。

人工智能(AI)

旨在执行通常需要人类智能的任务的计算机系统,例如识别模式、进行预测或生成内容。与通用人工智能不同,当前的人工智能是专用的,仅在特定领域内表现出色。

人工智能代理

能够根据输入、目标和环境上下文独立执行任务、做出决策或采取行动的自主系统或程序。它们通常结合多种人工智能技术,如机器学习和推理,以实现特定目标。

人工智能对齐

确保人工智能系统的目标与人类的价值观和意图保持一致。这既包括使人工智能系统按预期运行的技术方法,也包括关于我们应该在人工智能系统中灌输何种价值观的哲学思考。

人工智能模型

在更广泛的人工智能领域中,经过训练以执行特定任务的特定算法或系统。虽然人工智能是指机器模仿人类智能的总体概念,但人工智能模型是实际的实现方式 —— 例如生成文本的聊天机器人、图像生成器或推荐引擎 —— 使用数据构建并在定义的范围内进行训练。

人工智能包装器

可以把人工智能包装器想象成你和复杂的人工智能模型之间友好的中间人。这个包装器无需你处理所有复杂的代码和技术细节,就能让你轻松地向人工智能发送问题或命令,并获得清晰、易懂的答案 —— 有点像手机应用程序让使用互联网变得更容易,而无需了解 Wi-Fi 的工作原理。

思维链(CoT)

推理语言模型所使用的一种逐步方法,即人工智能明确地概述导致最终结论或答案的每个逻辑步骤或中间推理阶段。在推理模型中,使用思维链可以提高透明度、提高准确性,并让人类能够理解模型是如何得出其决策的。

聊天机器人

一种由人工智能驱动的程序,旨在模拟类似人类的对话,通常使用自然语言处理(NLP)来理解和响应文本或语音输入。现代的人工智能聊天机器人,比如基于大语言模型(LLM)的那些,可以生成具有上下文感知的、动态的回复,这使得它们在客户支持、虚拟助手和交互式应用程序中非常有用。

计算能力

运行人工智能模型、处理数据和执行复杂计算所需的处理能力。在人工智能领域,计算能力指的是硬件资源 —— 如图形处理单元(GPU)和张量处理单元(TPU)—— 这些资源使模型能够高效地进行训练和运行。更多的计算能力通常意味着更快、更强大的人工智能能力。

计算机视觉

解释图像或视频等视觉数据的人工智能。应用包括面部识别、医学图像分析、自动驾驶汽车以及制造业中的质量控制。

上下文

人工智能模型在生成新回复或做出决策时保留并考虑的信息。在大语言模型中,上下文包括之前的单词、句子,甚至是整个对话,这有助于人工智能理解含义、保持连贯性并产生相关的输出。模型能够处理的上下文数量通常受到其 “上下文窗口” 的限制,该窗口决定了它在任何给定时间能够 “记住” 多少先前的信息。

深度学习

机器学习的一个子集,使用具有多层的神经网络来识别复杂的模式。深度学习通过在图像识别、语言翻译和游戏等任务中实现突破性的性能,彻底改变了人工智能领域。

嵌入

一种捕捉语义含义的文本的数值表示,被人工智能模型用于理解上下文。嵌入使人工智能系统能够理解单词和概念之间的关系,从而实现更复杂的语言理解和生成。

可解释性

人工智能决策能够被人类理解的程度。这对于医疗保健和刑事司法等高风险应用至关重要,在这些应用中,理解人工智能如何得出结论对于建立信任和责任至关重要。

微调

在特定数据上对预训练模型进行优化,以提高其在专门任务上的性能。这个过程使组织能够利用强大的通用模型,同时使其适应特定领域或用例。

基础模型

在海量数据集上进行训练的大型人工智能模型,可以适应各种专门任务。这些人工智能模型是许多应用的基础,并且可以针对特定目的进行微调,从而显著减少开发专门人工智能系统所需的资源。

生成式人工智能

能够创建原创内容(文本、图像、音频)的人工智能系统,比如 ChatGPT。这些系统从训练数据中学习模式,并能够生成新的内容,这些内容在保持相似模式的同时具有独特性且符合上下文。

图形处理单元(GPU)

一种专门的处理器,最初设计用于渲染图形,但现在广泛应用于人工智能和机器学习领域,因为它可以并行处理多个计算。GPU 对于高效地训练和运行人工智能模型至关重要,尤其是深度学习模型。

真实数据

想象一下你在为一场考试学习,你有一份包含所有正确答案的答案钥匙 —— 那就是你的真实数据。在人工智能中,真实数据是人工智能模型学习的真实、经过验证的数据,比如向模型展示数千张标记好的猫的图片,这样它就知道猫实际长什么样。这就是我们确保人工智能不是仅仅在猜测,而是从事实中学习的方式。

幻觉

当生成式人工智能产生听起来合理但在事实上不正确的信息时的情况。这是部署人工智能系统时的一个重大挑战,尤其是在准确性至关重要的情况下,比如医疗保健或法律应用。

推理

使用经过训练的人工智能模型对新数据进行预测。推理过程涉及将在训练期间学习到的模式应用于新的情况,对于大型模型来说,这通常需要大量的计算资源。

大语言模型(LLM)

在大量文本数据上进行训练以生成类似人类文本的人工智能模型(例如 GPT-4)。这些模型能够理解上下文、生成连贯的回复,并执行从翻译到编码等广泛的与语言相关的任务。

机器学习(ML)

人工智能的一个子集,涉及通过经验和数据改进的算法。机器学习系统可以自动识别数据中的模式,并使用这些模式进行预测或决策,而无需被明确编程规则。

模型上下文协议(MCP)

模型上下文协议(MCP)是由 Anthropic 引入的一个开放标准,旨在为大语言模型(LLM)提供一种标准化的方式来访问和与外部数据源和工具进行交互。它作为大语言模型应用程序与其数据之间的桥梁,促进了无缝集成,使人工智能能够处理来自各种来源的上下文。

自然语言处理(NLP)

专注于使计算机能够理解、解释和生成人类语言的人工智能领域。自然语言处理技术为机器翻译、聊天机器人、情感分析和自动内容生成等应用提供支持。

神经网络

一种受人类大脑启发的计算模型,由相互连接的节点(神经元)组成。这些网络可以通过根据训练数据调整神经元之间连接的强度来学习复杂的模式。

参数

人工智能模型内部的变量,在训练期间进行调整以塑造模型的性能。参数的数量通常与模型的能力相关,现代大型模型包含数十亿甚至数万亿个参数。

提示工程

精心设计有效的指令或输入,以引导生成式人工智能系统。这涉及了解如何构建提示以实现所需的输出,并有效地处理边缘情况。

推理语言模型

一种人工智能模型,旨在根据输入数据和预定义的规则或学习到的模式对信息进行逻辑分析、得出结论并做出决策。这些模型与纯粹的预测模型不同,它们明确地遵循逻辑过程或步骤来得出答案或解决方案。

强化学习

通过基于所采取的行动给予奖励和惩罚来训练人工智能。这种方法使人工智能系统能够通过试错学习最优策略,类似于人类从经验中学习的方式。

检索增强生成(RAG)

一种混合人工智能方法,将检索(从外部来源获取相关信息)与生成(使用语言模型生成回复)相结合。在基于检索增强生成的系统中,人工智能在生成答案之前,首先从数据库、文档或网络中检索实时或事实性数据。一个很好的例子是 Perplexity AI,这是一个聊天机器人,它积极地在网络上搜索相关来源,并在其回复中引用这些来源,将检索与人工智能生成的摘要相结合。

监督学习

使用标记数据(输入和正确答案)训练人工智能模型。这是最常见的机器学习形式,模型根据示例学习将输入映射到已知输出。

张量处理单元(TPU)

由谷歌开发的一种定制硬件组件,专门为机器学习工作负载而设计。TPU 针对张量计算进行了优化,对于某些人工智能任务,如训练大型神经网络,它比 GPU 更快、更高效。

分词

将文本分解为更小的单元(单词或标记),以供自然语言处理模型进行处理。分词策略的选择会显著影响模型的性能和效率,尤其是在处理多种语言或专业词汇时。

训练

通过根据数据调整其参数来教导人工智能模型。这个过程需要大量的计算资源和精心策划的数据集,以实现最佳性能。

变换器

一种使用注意力机制的神经网络架构,对于大语言模型至关重要。变换器通过使模型能够更有效地处理长文本序列,专注于输入的相关部分,彻底改变了自然语言处理领域。

无监督学习

在无标记数据上训练人工智能模型,以在没有明确指令的情况下发现模式。当标记数据稀缺或获取成本高昂时,以及在发现数据中的新颖模式时,这种方法特别有价值。

氛围编程

当程序员用几句话将一个问题描述为对经过编码调优的大语言模型的提示时的编程方式。这种方法可以通过自动化常规编码任务并为常见编程挑战提供快速解决方案,显著加快开发速度。

权重

神经网络中使用的数值,用于确定每个输入对输出的影响程度。这些权重在训练期间进行调整,以帮助人工智能准确地解释数据并进行预测。