Sorry, your browser cannot access this site
This page requires browser support (enable) JavaScript
Learn more >

1.1. 模型架构类

英文缩写 英文全称 中文翻译 功能说明
LLM Large Language Model 大语言模型 基于海量文本训练的通用语言模型,可处理生成、翻译、问答等任务。
NLP Natural Language Processing 自然语言处理 使计算机理解、生成和操作人类语言的技术,如文本分类、情感分析。
CV Computer Vision 计算机视觉 处理图像和视频的AI技术,例如目标检测、图像分割。
GAN Generative Adversarial Network 生成对抗网络 通过生成器和判别器的对抗训练生成逼真数据(如图像、音频)。
RNN Recurrent Neural Network 循环神经网络 擅长处理序列数据(如文本、时间序列)的神经网络架构。
GPT Generative Pre-trained Transformer 生成式预训练Transformer 基于Transformer架构的预训练语言模型,如GPT-3/ChatGPT。
BERT Bidirectional Encoder Representations from Transformers 双向Transformer编码器 通过双向注意力机制理解上下文语义的预训练模型。
RLHF Reinforcement Learning from Human Feedback 基于人类反馈的强化学习 通过人工标注优化模型输出,提升对齐人类价值观的能力。

1.2. 训练与优化类

英文缩写 英文全称 中文翻译 功能说明
ML Machine Learning 机器学习 通过数据自动学习和改进算法性能的技术。
DL Deep Learning 深度学习 基于多层神经网络的机器学习方法。
SGD Stochastic Gradient Descent 随机梯度下降 通过迭代优化损失函数的训练算法。
Backpropagation N/A 反向传播 计算神经网络参数梯度以更新权重的核心算法。
Fine-tuning N/A 微调 基于预训练模型,在特定任务上进行小规模训练以适配新任务。
LoRA Low-Rank Adaptation 低秩适配 通过低秩矩阵微调大模型参数的高效训练技术。
Token N/A 标记(或词元) 将输入文本分割为最小处理单元(如单词、子词或字符)。

1.3. 数据集与框架类

英文缩写 英文全称 中文翻译 功能说明
API Application Programming Interface 应用程序接口 允许开发者在外部调用模型服务的接口。
TPU Tensor Processing Unit 张量处理单元 谷歌专为深度学习设计的加速芯片。
GPU Graphics Processing Unit 图形处理器 并行计算硬件,加速模型训练与推理。
COCO Common Objects in Context 通用物体图像数据集 包含20万张标注图像,支持目标检测和语义分割任务。
HuggingFace N/A - 提供预训练模型和开源工具的开源社区与平台。
PyTorch N/A - 基于Python的深度学习框架,支持动态图计算和快速实验。

1.4. 评估与指标类

英文缩写 英文全称 中文翻译 功能说明
BLEU Bilingual Evaluation Understudy 双语评估替代指标 衡量机器生成文本与参考文本的词汇匹配程度(常用于语言翻译)。
F1 Score N/A F1分数 分类任务中精确率(Precision)和召回率(Recall)的调和平均。
MSE Mean Squared Error 均方误差 回归任务中预测值与真实值差异的平方平均值。
AUC Area Under the ROC Curve ROC曲线下面积 衡量分类模型区分正负样本能力的指标。
Perplexity N/A 困惑度 评估语言模型预测能力,值越低表示模型越能准确预测文本。

1.5. 其他关键技术

英文缩写 英文全称 中文翻译 功能说明
AGI Artificial General Intelligence 通用人工智能 具备与人类相当的多领域认知能力的AI系统(目前未实现)。
推荐阅读
AI大模型有哪些常见的分类? AI大模型有哪些常见的分类? 有哪些好用的AI工具?(你想要的AI工具都在这) 有哪些好用的AI工具?(你想要的AI工具都在这) DeepSeek一直服务器繁忙,还有哪些平替的方法?(永久解决无法访问的问题) DeepSeek一直服务器繁忙,还有哪些平替的方法?(永久解决无法访问的问题)

评论