AI常用术语大全 | AI常用名词有哪些

分类 术语名词 英文简称/全称 解释说明
核心概念 人工智能 AI / Artificial Intelligence 计算机科学分支,旨在创造能够执行需要智能行为的机器系统。
机器学习 ML / Machine Learning AI的子领域,通过算法让计算机从数据中学习模式,而无需显式编程。
深度学习 DL / Deep Learning 一种基于多层神经网络的机器学习,擅长处理图像、语音等非结构化数据。
生成式人工智能 GenAI / Generative AI 能够生成全新、原创内容(如文本、图像、音乐)的AI模型。
大语言模型 LLM / Large Language Model 基于海量文本数据训练的、拥有巨量参数的深度学习模型,能理解和生成自然语言。
通用人工智能 AGI / Artificial General Intelligence 理论上具备与人类同等或超越人类的、全面认知能力的AI。
人工智能智能体 AI Agent / Artificial Intelligence Agent 能够感知环境、自主决策、执行动作以实现特定目标的智能系统。
模型架构 神经网络 NN / Neural Network 受生物大脑启发,由相互连接的节点(神经元)组成的计算模型。
循环神经网络 RNN / Recurrent Neural Network 专为处理序列数据设计的神经网络,具有内部记忆功能。
长短期记忆网络 LSTM / Long Short-Term Memory 一种特殊的RNN,能有效学习长期依赖关系,解决梯度消失问题。
卷积神经网络 CNN / Convolutional Neural Network 专为处理网格状数据(如图像)设计的神经网络,利用卷积核提取特征。
变换器 Transformer 完全基于自注意力机制的神经网络架构,是现代LLM的基石。
生成对抗网络 GAN / Generative Adversarial Network 由生成器和判别器组成,通过相互对抗学习来生成逼真数据的框架。
自编码器 AE / Autoencoder 用于数据降维和特征学习的无监督神经网络,包含编码器和解码器。
扩散模型 Diffusion Model 通过逐步添加和去除噪声来学习数据分布,当前最先进的图像生成模型。
学习范式 监督学习 SL / Supervised Learning 使用带标签的数据训练模型,用于预测或分类任务。
无监督学习 UL / Unsupervised Learning 无标签数据中寻找内在模式或结构,如聚类或异常检测。
半监督学习 SSL / Semi-Supervised Learning 同时使用少量标注数据和大量未标注数据进行训练。
自监督学习 SSL / Self-Supervised Learning 从数据本身生成标签进行学习,是训练大模型的重要预训练方式。
强化学习 RL / Reinforcement Learning 智能体通过与环境交互,根据获得的奖励信号学习最优策略。
迁移学习 TL / Transfer Learning 将在一个任务上学到的知识,应用于另一个相关任务的技术。
小样本学习 FSL / Few-Shot Learning 模型仅通过极少数示例就能快速学习和适应新任务。
训练与优化 监督微调 SFT / Supervised Fine-Tuning 在预训练模型基础上,使用高质量标注数据进行有监督的精细调整。
人类反馈强化学习 RLHF / RL from Human Feedback 引入人类偏好作为奖励信号,通过RL对齐模型行为,使其更符合人类价值观。
参数 Parameters 模型内部可调整的变量,其数量和分布决定了模型的能力。
超参数 Hyperparameters 训练前设置的、控制训练过程的配置,如学习率、批次大小。
梯度下降 Gradient Descent 通过计算损失函数的梯度并迭代更新参数,以最小化损失的优化算法。
反向传播 Backpropagation 在神经网络中,根据输出误差从后向前计算并分配梯度,用于权重更新的算法。
损失函数 Loss Function 衡量模型预测值与真实值之间差异的函数,是优化的目标。
过拟合 Overfitting 模型对训练数据学得过于复杂,导致在未见数据上性能下降的现象。
正则化 Regularization 为防止过拟合而引入的技术,如L1、L2正则化,通过惩罚复杂模型来提升泛化能力。
学习率 Learning Rate 控制每次参数更新步长的超参数,对训练收敛和稳定性至关重要。
提示与推理 提示工程 Prompt Engineering 设计和优化输入给模型的文本指令,以引导其产生期望输出。
思维链 CoT / Chain-of-Thought 在提示中要求模型展示其逐步推理过程,能显著提升复杂问题解答能力。
检索增强生成 RAG / Retrieval-Augmented Generation 将外部知识库与LLM结合,生成时检索相关信息,提高答案准确性和时效性。
函数调用 Function Calling LLM根据用户请求,识别并输出结构化参数,以调用外部工具或API的能力。
微调 FT / Fine-Tuning 使用特定领域数据对预训练模型进行继续训练,使其适应专门任务。
评估与可解释性 准确率 Accuracy 模型预测正确的样本占总样本的比例。
精确率与召回率 Precision & Recall 精确率衡量预测正例中的真实正例比例;召回率衡量真实正例中被预测出来的比例。
F1分数 F1 Score 精确率和召回率的调和平均数,是综合评估模型性能的指标。
混淆矩阵 Confusion Matrix 展示分类模型预测结果与真实结果之间关系的矩阵。
可解释性人工智能 XAI / Explainable AI 旨在理解和信任AI模型决策过程的研究领域。
沙普利值 Shapley Value 来自博弈论,用于解释每个特征对模型最终预测结果的贡献度。
风险与伦理 幻觉 Hallucination AI模型生成看似合理但事实上错误或无根据信息的行为。
偏见 Bias 由于数据或算法问题,导致模型产生系统性、不公正的歧视或偏见。
对齐问题 Alignment Problem 如何确保AI系统的目标与人类价值观和意图保持一致的根本性挑战。
越狱 Jailbreaking 通过特殊提示词绕过模型安全限制,使其产生通常被禁止内容的技术。
提示注入 Prompt Injection 一种攻击方式,通过精心构造的输入覆盖或篡改原始系统指令。
数据投毒 Data Poisoning 攻击者在训练数据中注入恶意样本,以破坏模型性能或植入后门。
模型窃取 Model Stealing 通过查询目标模型的API来复制其功能或数据的攻击方式。
前沿与应用 计算机视觉 CV / Computer Vision 让计算机能够"看懂"并理解图像和视频内容的人工智能分支。
自然语言处理 NLP / Natural Language Processing 让计算机能够理解、解释和生成人类语言的人工智能分支。
语音识别 ASR / Automatic Speech Recognition 将人类语音转换为文本的技术。
文本转语音 TTS / Text-to-Speech 将文本转换为人类可听的语音的技术。
多模态模型 Multimodal Model 能够同时处理和生成多种类型信息(如文本、图像、声音)的模型。
具身人工智能 Embodied AI 存在于物理实体中,能与真实世界进行物理交互的AI系统。
联邦学习 FL / Federated Learning 一种分布式机器学习技术,允许在数据不离开本地设备的情况下协同训练模型。
缩放定律 Scaling Laws 描述模型性能与模型规模、数据量和计算量之间可预测的幂律关系。
摩尔定律 Moore's Law 由英特尔创始人提出的观察,预测集成电路上可容纳的晶体管数量约每两年翻一番。
常见大模型







ChatGPT ChatGPT 发布机构:Open AI;综合能力全面,生态成熟,多模态能力领先;内容创作、复杂推理、作为技术基座
DeepSeek DeepSeek 发布机构:深度探索;采用MoE架构,以低成本实现高性能,逻辑推理和数学能力强;数学、代码和逻辑推理任务,企业私有化部署
豆包 Doubao 发布机构:字节跳动;权威中文测评中表现出色,采用MoE架构,推理成本低,支持多模态;智能客服、内容创作
Gemini Gemini 发布机构:Google;内置“思考”模型,擅长深度推理,支持超长上下文;分析视频、长篇文档、音频等混合媒体内容
通义千问 Qwen 发布机构:阿里;开源家族庞大,多模态版本完善,电商场景应用强;业务系统集成、多语言场景、代码生成
文心一言 ERNIE 发布机构:百度;中文语义理解深厚,百度产品生态集成度高,行业套件丰富;政企、教育、医疗等需要深度中文理解的行业
Claude Claude 发布机构:Anthropic;以安全性和长上下文处理见长,逻辑推理稳健;长文档总结与分析、技术文档处理
LLaMA LLaMA 发布机构:Meta;开源社区的明星模型,生态完善,适合研究和自定义开发;学术研究、作为其他应用的基座模型

 

使用微信扫描二维码后

点击右上角发送给好友