LLM领域的术语及其中文翻译

模型名称及其中英文对应

英文名称中文对应全称中文全称翻译
GPT-3/GPT-4GPT-3/GPT-4Generative Pre-trained Transformer 3/4生成式预训练变换器 3/4
BERTBERTBidirectional Encoder Representations from Transformers双向编码器表示来自变换器
RoBERTaRoBERTaRobustly Optimized BERT Pre-Training Approach稳健优化 BERT 预训练方法
XLNetXLNetXLNetXLNet
T5T5Text-to-Text Transfer Transformer文本到文本转移变换器
BARTBARTBidirectional and Auto-Regressive Transformers双向和自回归变换器
ELECTRAELECTRAEfficiently Learning an Encoder that Classifies Token Replacements Accurately高效学习编码器分类令牌替换准确
DeBERTaDeBERTaDecoding-enhanced BERT with Disentangled Attention解码增强 BERT 具有解耦注意力
PaLMPaLMPathways Language Model路径语言模型
LLaMALLaMALarge Language Model Meta AI大型语言模型 Meta AI
BLOOMBLOOMBigScience Large Open-science Open-access Multilangual language modelBigScience 大型开源多语言语言模型
ChinchillaChinchillaChinchillaChinchilla
OPTOPTOpen Pre-trained Transformer开放预训练变换器
ERNIEERNIE(文心一言)Enhanced Representation through Knowledge Integration通过知识集成增强表示
CPMCPMChinese Pre-trained Model中文预训练模型
GLMGLMGeneral Language Model通用语言模型
MacBertMacBertMacBertMacBert
Chinese BERTChinese BERTChinese BERT中文 BERT

术语及其中英文对应

英文术语中文翻译说明
AIGC人工智能生成内容通过AI技术自动生成的各类媒体内容(文本、图像、音频等)
Large Language Model大型语言模型LLM 的核心概念
Pre training预训练模型在大量数据上的初始训练
Fine-tuning微调在特定任务上调整模型
Transformer变换器LLM 常用的架构
Attention mechanism注意力机制变换器中的关键技术
Word embedding词嵌入单词到向量表示
Contextualized embedding上下文嵌入考虑上下文的嵌入
Masked language modeling掩码语言建模BERT 使用的预训练任务
Next sentence prediction下一句预测BERT 早期使用的任务
Transfer learning迁移学习模型在不同任务间的应用
Natural language processing自然语言处理LLM 的应用领域
Deep learning深度学习LLM 的基础技术
Neural network神经网络深度学习的构建块
Gradient descent梯度下降优化算法
Backpropagation反向传播训练神经网络的核心方法
Prompt提示输入给模型的指令
Prompt engineering提示工程优化提示以改善输出
Few-shot learning少样本学习少量示例下学习
Zero-shot learning零样本学习无示例直接推理
In-context learning上下文学习基于上下文的推理
Parameter-efficient fine-tuning参数高效微调减少参数调整的微调方法
Model scaling模型扩展增加模型规模以提升性能
Compute-optimal scaling计算最优扩展优化计算资源的使用
Data-optimal scaling数据最优扩展优化数据使用的扩展
Encoder-decoder architecture编码解码器架构某些 LLM 的架构
Auto-regressive model自回归模型生成文本的模型类型
Bidirectional model双向模型考虑前后文的模型
Self-supervision自监督无需标签的训练方法
Unsupervised learning无监督学习无标签数据的学习
Supervised learning监督学习有标签数据的学习
想都是问题,做才是答案!
使用 Hugo 构建
主题 StackJimmy 设计