模型名称及其中英文对应
英文名称 | 中文对应 | 全称 | 中文全称翻译 |
---|---|---|---|
GPT-3/GPT-4 | GPT-3/GPT-4 | Generative Pre-trained Transformer 3/4 | 生成式预训练变换器 3/4 |
BERT | BERT | Bidirectional Encoder Representations from Transformers | 双向编码器表示来自变换器 |
RoBERTa | RoBERTa | Robustly Optimized BERT Pre-Training Approach | 稳健优化 BERT 预训练方法 |
XLNet | XLNet | XLNet | XLNet |
T5 | T5 | Text-to-Text Transfer Transformer | 文本到文本转移变换器 |
BART | BART | Bidirectional and Auto-Regressive Transformers | 双向和自回归变换器 |
ELECTRA | ELECTRA | Efficiently Learning an Encoder that Classifies Token Replacements Accurately | 高效学习编码器分类令牌替换准确 |
DeBERTa | DeBERTa | Decoding-enhanced BERT with Disentangled Attention | 解码增强 BERT 具有解耦注意力 |
PaLM | PaLM | Pathways Language Model | 路径语言模型 |
LLaMA | LLaMA | Large Language Model Meta AI | 大型语言模型 Meta AI |
BLOOM | BLOOM | BigScience Large Open-science Open-access Multilangual language model | BigScience 大型开源多语言语言模型 |
Chinchilla | Chinchilla | Chinchilla | Chinchilla |
OPT | OPT | Open Pre-trained Transformer | 开放预训练变换器 |
ERNIE | ERNIE(文心一言) | Enhanced Representation through Knowledge Integration | 通过知识集成增强表示 |
CPM | CPM | Chinese Pre-trained Model | 中文预训练模型 |
GLM | GLM | General Language Model | 通用语言模型 |
MacBert | MacBert | MacBert | MacBert |
Chinese BERT | Chinese BERT | Chinese BERT | 中文 BERT |
术语及其中英文对应
英文术语 | 中文翻译 | 说明 |
---|---|---|
AIGC | 人工智能生成内容 | 通过AI技术自动生成的各类媒体内容(文本、图像、音频等) |
Large Language Model | 大型语言模型 | LLM 的核心概念 |
Pre training | 预训练 | 模型在大量数据上的初始训练 |
Fine-tuning | 微调 | 在特定任务上调整模型 |
Transformer | 变换器 | LLM 常用的架构 |
Attention mechanism | 注意力机制 | 变换器中的关键技术 |
Word embedding | 词嵌入 | 单词到向量表示 |
Contextualized embedding | 上下文嵌入 | 考虑上下文的嵌入 |
Masked language modeling | 掩码语言建模 | BERT 使用的预训练任务 |
Next sentence prediction | 下一句预测 | BERT 早期使用的任务 |
Transfer learning | 迁移学习 | 模型在不同任务间的应用 |
Natural language processing | 自然语言处理 | LLM 的应用领域 |
Deep learning | 深度学习 | LLM 的基础技术 |
Neural network | 神经网络 | 深度学习的构建块 |
Gradient descent | 梯度下降 | 优化算法 |
Backpropagation | 反向传播 | 训练神经网络的核心方法 |
Prompt | 提示 | 输入给模型的指令 |
Prompt engineering | 提示工程 | 优化提示以改善输出 |
Few-shot learning | 少样本学习 | 少量示例下学习 |
Zero-shot learning | 零样本学习 | 无示例直接推理 |
In-context learning | 上下文学习 | 基于上下文的推理 |
Parameter-efficient fine-tuning | 参数高效微调 | 减少参数调整的微调方法 |
Model scaling | 模型扩展 | 增加模型规模以提升性能 |
Compute-optimal scaling | 计算最优扩展 | 优化计算资源的使用 |
Data-optimal scaling | 数据最优扩展 | 优化数据使用的扩展 |
Encoder-decoder architecture | 编码解码器架构 | 某些 LLM 的架构 |
Auto-regressive model | 自回归模型 | 生成文本的模型类型 |
Bidirectional model | 双向模型 | 考虑前后文的模型 |
Self-supervision | 自监督 | 无需标签的训练方法 |
Unsupervised learning | 无监督学习 | 无标签数据的学习 |
Supervised learning | 监督学习 | 有标签数据的学习 |