| 核心概念 |
人工智能 |
AI / Artificial Intelligence |
计算机科学分支,旨在创造能够执行需要智能行为的机器系统。 |
| 机器学习 |
ML / Machine Learning |
AI的子领域,通过算法让计算机从数据中学习模式,而无需显式编程。 |
| 深度学习 |
DL / Deep Learning |
一种基于多层神经网络的机器学习,擅长处理图像、语音等非结构化数据。 |
| 生成式人工智能 |
GenAI / Generative AI |
能够生成全新、原创内容(如文本、图像、音乐)的AI模型。 |
| 大语言模型 |
LLM / Large Language Model |
基于海量文本数据训练的、拥有巨量参数的深度学习模型,能理解和生成自然语言。 |
| 通用人工智能 |
AGI / Artificial General Intelligence |
理论上具备与人类同等或超越人类的、全面认知能力的AI。 |
| 人工智能智能体 |
AI Agent / Artificial Intelligence Agent |
能够感知环境、自主决策、执行动作以实现特定目标的智能系统。 |
| 模型架构 |
神经网络 |
NN / Neural Network |
受生物大脑启发,由相互连接的节点(神经元)组成的计算模型。 |
| 循环神经网络 |
RNN / Recurrent Neural Network |
专为处理序列数据设计的神经网络,具有内部记忆功能。 |
| 长短期记忆网络 |
LSTM / Long Short-Term Memory |
一种特殊的RNN,能有效学习长期依赖关系,解决梯度消失问题。 |
| 卷积神经网络 |
CNN / Convolutional Neural Network |
专为处理网格状数据(如图像)设计的神经网络,利用卷积核提取特征。 |
| 变换器 |
Transformer |
完全基于自注意力机制的神经网络架构,是现代LLM的基石。 |
| 生成对抗网络 |
GAN / Generative Adversarial Network |
由生成器和判别器组成,通过相互对抗学习来生成逼真数据的框架。 |
| 自编码器 |
AE / Autoencoder |
用于数据降维和特征学习的无监督神经网络,包含编码器和解码器。 |
| 扩散模型 |
Diffusion Model |
通过逐步添加和去除噪声来学习数据分布,当前最先进的图像生成模型。 |
| 学习范式 |
监督学习 |
SL / Supervised Learning |
使用带标签的数据训练模型,用于预测或分类任务。 |
| 无监督学习 |
UL / Unsupervised Learning |
在无标签数据中寻找内在模式或结构,如聚类或异常检测。 |
| 半监督学习 |
SSL / Semi-Supervised Learning |
同时使用少量标注数据和大量未标注数据进行训练。 |
| 自监督学习 |
SSL / Self-Supervised Learning |
从数据本身生成标签进行学习,是训练大模型的重要预训练方式。 |
| 强化学习 |
RL / Reinforcement Learning |
智能体通过与环境交互,根据获得的奖励信号学习最优策略。 |
| 迁移学习 |
TL / Transfer Learning |
将在一个任务上学到的知识,应用于另一个相关任务的技术。 |
| 小样本学习 |
FSL / Few-Shot Learning |
模型仅通过极少数示例就能快速学习和适应新任务。 |
| 训练与优化 |
监督微调 |
SFT / Supervised Fine-Tuning |
在预训练模型基础上,使用高质量标注数据进行有监督的精细调整。 |
| 人类反馈强化学习 |
RLHF / RL from Human Feedback |
引入人类偏好作为奖励信号,通过RL对齐模型行为,使其更符合人类价值观。 |
| 参数 |
Parameters |
模型内部可调整的变量,其数量和分布决定了模型的能力。 |
| 超参数 |
Hyperparameters |
训练前设置的、控制训练过程的配置,如学习率、批次大小。 |
| 梯度下降 |
Gradient Descent |
通过计算损失函数的梯度并迭代更新参数,以最小化损失的优化算法。 |
| 反向传播 |
Backpropagation |
在神经网络中,根据输出误差从后向前计算并分配梯度,用于权重更新的算法。 |
| 损失函数 |
Loss Function |
衡量模型预测值与真实值之间差异的函数,是优化的目标。 |
| 过拟合 |
Overfitting |
模型对训练数据学得过于复杂,导致在未见数据上性能下降的现象。 |
| 正则化 |
Regularization |
为防止过拟合而引入的技术,如L1、L2正则化,通过惩罚复杂模型来提升泛化能力。 |
| 学习率 |
Learning Rate |
控制每次参数更新步长的超参数,对训练收敛和稳定性至关重要。 |
| 提示与推理 |
提示工程 |
Prompt Engineering |
设计和优化输入给模型的文本指令,以引导其产生期望输出。 |
| 思维链 |
CoT / Chain-of-Thought |
在提示中要求模型展示其逐步推理过程,能显著提升复杂问题解答能力。 |
| 检索增强生成 |
RAG / Retrieval-Augmented Generation |
将外部知识库与LLM结合,生成时检索相关信息,提高答案准确性和时效性。 |
| 函数调用 |
Function Calling |
LLM根据用户请求,识别并输出结构化参数,以调用外部工具或API的能力。 |
| 微调 |
FT / Fine-Tuning |
使用特定领域数据对预训练模型进行继续训练,使其适应专门任务。 |
| 评估与可解释性 |
准确率 |
Accuracy |
模型预测正确的样本占总样本的比例。 |
| 精确率与召回率 |
Precision & Recall |
精确率衡量预测正例中的真实正例比例;召回率衡量真实正例中被预测出来的比例。 |
| F1分数 |
F1 Score |
精确率和召回率的调和平均数,是综合评估模型性能的指标。 |
| 混淆矩阵 |
Confusion Matrix |
展示分类模型预测结果与真实结果之间关系的矩阵。 |
| 可解释性人工智能 |
XAI / Explainable AI |
旨在理解和信任AI模型决策过程的研究领域。 |
| 沙普利值 |
Shapley Value |
来自博弈论,用于解释每个特征对模型最终预测结果的贡献度。 |
| 风险与伦理 |
幻觉 |
Hallucination |
AI模型生成看似合理但事实上错误或无根据信息的行为。 |
| 偏见 |
Bias |
由于数据或算法问题,导致模型产生系统性、不公正的歧视或偏见。 |
| 对齐问题 |
Alignment Problem |
如何确保AI系统的目标与人类价值观和意图保持一致的根本性挑战。 |
| 越狱 |
Jailbreaking |
通过特殊提示词绕过模型安全限制,使其产生通常被禁止内容的技术。 |
| 提示注入 |
Prompt Injection |
一种攻击方式,通过精心构造的输入覆盖或篡改原始系统指令。 |
| 数据投毒 |
Data Poisoning |
攻击者在训练数据中注入恶意样本,以破坏模型性能或植入后门。 |
| 模型窃取 |
Model Stealing |
通过查询目标模型的API来复制其功能或数据的攻击方式。 |
| 前沿与应用 |
计算机视觉 |
CV / Computer Vision |
让计算机能够"看懂"并理解图像和视频内容的人工智能分支。 |
| 自然语言处理 |
NLP / Natural Language Processing |
让计算机能够理解、解释和生成人类语言的人工智能分支。 |
| 语音识别 |
ASR / Automatic Speech Recognition |
将人类语音转换为文本的技术。 |
| 文本转语音 |
TTS / Text-to-Speech |
将文本转换为人类可听的语音的技术。 |
| 多模态模型 |
Multimodal Model |
能够同时处理和生成多种类型信息(如文本、图像、声音)的模型。 |
| 具身人工智能 |
Embodied AI |
存在于物理实体中,能与真实世界进行物理交互的AI系统。 |
| 联邦学习 |
FL / Federated Learning |
一种分布式机器学习技术,允许在数据不离开本地设备的情况下协同训练模型。 |
| 缩放定律 |
Scaling Laws |
描述模型性能与模型规模、数据量和计算量之间可预测的幂律关系。 |
| 摩尔定律 |
Moore's Law |
由英特尔创始人提出的观察,预测集成电路上可容纳的晶体管数量约每两年翻一番。 |
常见大模型
|
ChatGPT |
ChatGPT |
发布机构:Open AI;综合能力全面,生态成熟,多模态能力领先;内容创作、复杂推理、作为技术基座 |
| DeepSeek |
DeepSeek |
发布机构:深度探索;采用MoE架构,以低成本实现高性能,逻辑推理和数学能力强;数学、代码和逻辑推理任务,企业私有化部署 |
| 豆包 |
Doubao |
发布机构:字节跳动;权威中文测评中表现出色,采用MoE架构,推理成本低,支持多模态;智能客服、内容创作 |
| Gemini |
Gemini |
发布机构:Google;内置“思考”模型,擅长深度推理,支持超长上下文;分析视频、长篇文档、音频等混合媒体内容 |
| 通义千问 |
Qwen |
发布机构:阿里;开源家族庞大,多模态版本完善,电商场景应用强;业务系统集成、多语言场景、代码生成 |
| 文心一言 |
ERNIE |
发布机构:百度;中文语义理解深厚,百度产品生态集成度高,行业套件丰富;政企、教育、医疗等需要深度中文理解的行业 |
| Claude |
Claude |
发布机构:Anthropic;以安全性和长上下文处理见长,逻辑推理稳健;长文档总结与分析、技术文档处理 |
| LLaMA |
LLaMA |
发布机构:Meta;开源社区的明星模型,生态完善,适合研究和自定义开发;学术研究、作为其他应用的基座模型 |