AI 大语言模型概览
主流大模型
核心技术
预训练与微调
什么是预训练与微调?
预训练与微调是大语言模型训练的两个关键阶段。预训练阶段让模型在大规模通用数据集上学习基础语言知识,而微调阶段则针对特定任务进行优化。
预训练阶段
数据规模
:使用海量文本数据(通常达到数万亿个token)
训练目标
:预测下一个token(自监督学习)
计算资源
:需要大量GPU/TPU资源和长时间训练
模型规模
:通常包含数十亿到数万亿个参数
微调阶段
数据规模
:使用较小规模的任务特定数据
训练目标
:针对特定任务优化模型性能
训练方法
:
全参数微调
LoRA(低秩适应)
Prompt Tuning
P-Tuning
优势
提高模型泛化能力
降低特定任务训练成本
快速适应新任务
保持基础语言能力
应用场景
特定领域问答
专业文档生成
代码补全
多语言翻译
情感分析
返回首页