#transformers模型库
14 天吃透大模型开发全链路 安装 → 微调 → 发布

14天吃透 Transformers 模型库
从安装到发布你的第一个大模型

从环境配置到 Pipeline 一键推理, 从 AutoClass 加载千亿参数PEFT 微调 + Accelerate 分布式训练, 一次性打通 HuggingFace 生态全链路。
14 天完成「数据预处理 → 模型微调 → 性能优化 → 模型分享」工业级闭环, 真正做到:改得动、训得起、上得了线。

学习周期
14 天冲刺营节奏
从零到跑通第一个大模型
知识覆盖
100+精细拆解章节
从安装到部署的全链路
定位人群
0 基础也能上手
Python / DL 基础薄弱也可学
先看看目录
零基础友好:从环境安装到第一次推理全程手把手 实战导向:每一章节都配有可直接运行的示例代码 工程闭环:真正跑通「训练 → 优化 → 部署 → 分享」
WHY THIS COURSE

为什么一定要系统学一次 Transformers 模型库?

而不是零散看文档、到处抄 Demo —— 14 天给你一套可以复用到所有大模型项目里的底层能力。

👤
这门专栏适合谁?
零基础也能学
  • 希望 从 0 打通 HuggingFace 生态 的同学,而不是只会调用别人封装好的 API。
  • 在公司里被安排「做个大模型项目」,但 不知道从哪一步开始下手 的开发者 / 算法工程师。
  • 已经能跑 Demo,但 不懂微调、加速、量化、部署细节 的 LLM 玩家。
  • 准备转型 AI / 大模型方向,想用 一个完整项目闭环 打磨简历亮点的同学。
🚀
14 天你将获得什么?
  • 掌握一套可迁移到任意业务的 「数据预处理 → 模型选择 → 微调 → 部署」标准流程
  • 亲手完成 一个可对外分享的 HuggingFace 模型仓库,成为你简历 & GitHub 上最亮眼的项目之一。
  • 从文本、图像、音频到多模态,熟悉 Transformers 能力边界:知道「能做什么」「不能做什么」
  • 清晰理解 LoRA / QLoRA / 各种量化方案差异,真正知道该怎么选、为什么这么选
LEARNING LOOP

4 个阶段打通「从 Demo 到上线」的工业级闭环

不只是「跑通一个例子」,而是围绕真实业务需求,完成完整可交付的大模型项目。

阶段 1
从安装到第一次推理
在你的机器上稳定装好所有依赖,跑通第一个 Pipeline 推理,建立对 Transformers 的「掌控感」。
#1 安装 #2 快速上手 #3 Pipeline 推理 #4 AutoClass 加载
阶段 2
让模型说人话:微调你的业务模型
学会如何准备数据、选择合适模型、用 LoRA / QLoRA 做轻量微调,让模型真正为你场景服务。
#5 预处理数据 #6-9 微调 & PEFT #11-16 Agents & LLM 提示
阶段 3
多模态 & 高性能推理
体验文本、图像、音频、视频等多模态任务,并通过缓存、量化、并行训练让模型跑得更快、更省。
#17-23 多模态任务 #24-39 生成 & 零样本 #63-71 量化技术
阶段 4
工程化部署 & 性能优化
从单机到多机、多 GPU / 多 CPU,再到 Web 服务部署与推理优化,完成生产级闭环。
#77-91 性能优化 #92-95 大模型加载 & 加速 #106-108 Web & 部署优化
FULL SYLLABUS

完整专栏目录 · 100+ 精细章节全部开放给会员

每一小节都对应一个可运行 Notebook / 脚本,从「看得懂」到「改得动」,只差你动手敲下去那一次 Enter。

全部 108 讲 · 会员专属阅读权限
基础入门 · 环境安装 & 快速上手
#1
安装
从环境配置到依赖管理,避免一切安装踩坑
#2
快速上手
10 分钟跑通你的第一个 Transformers Demo
#3
Pipeline 推理
用一行代码串起复杂推理流程
#4
使用 AutoClass 加载预训练实例
AutoModel / AutoTokenizer 全家桶一网打尽
#5
预处理数据
从原始数据到模型输入的完整流程
#6
微调预训练模型
将通用模型转换为领域专家
训练体系 · 微调 · 模型管理
#7
使用脚本进行训练
自动化构建完整模型训练流程
#8
使用 Accelerate 进行分布式训练
快速部署多卡与多机训练
#9
使用 PEFT 加载 adapters
高效微调大模型关键技术
#10
分享模型
模型发布到 HuggingFace Hub 的完整流程
#11
Transformers Agents 快速上手
构建基于 LLM 的智能代理系统
#12
使用 LLMs 生成
大语言模型生成任务实践
#13
Agents 与 Tools
构建工具增强型大模型应用
自然语言处理 NLP 核心任务
#14
文本分类
情感分析与主题分类实战
#15
标记分类(Token Classification)
命名实体识别与序列标注
#16
LLM 提示指南
Prompt 设计与提示工程方法
#29
因果语言模型
自回归模型原理与应用实践
#30
遮蔽语言模型
BERT 等双向语言模型详解
#31
翻译
神经机器翻译技术与实现
#32
文本摘要
自动摘要模型与应用场景
#33
多项选择任务
选择问答与推理任务设计
#34
问题解答
问答系统与阅读理解模型
语音 · 多模态 · 视觉语言模型
#17
自动语音识别 (ASR)
语音转文本系统实战
#18
文本转语音 (TTS)
文本生成语音模型详解
#19
图像-视觉多模态理解模型
图文输入大模型应用
#20
视觉问答 (VQA)
图像问答系统设计
#21
文档问答 (DQA)
文档智能问答解决方案
#22
视频-视觉多模态理解
视频文本多模态融合模型
#23
图像描述生成
从图像生成自然语言描述
#24
使用缓存优化生成
提升生成性能的缓存实践
#25
文本生成策略
解码算法与生成控制
#26
图像分类
基础视觉分类模型实战
#27
图像分割
语义分割与实例分割技术
#28
以图生图
图像到图像生成任务详解
#35
音频分类
声音事件识别与音频分类
#36
视频分类
视频内容理解与分类模型
#37
目标检测
物体检测与定位任务
#38
零样本目标检测
无需标注的检测模型
#39
零样本图像分类
零样本视觉分类方法
#40
单目与多目深度估计的区别
深度估计技术对比解析
#41
图像特征提取
视觉特征编码方法详解
#42
掩码生成
自动掩码生成技术
#43
关键点检测
人体与物体关键点识别
#44
知识蒸馏在计算机视觉中的应用
模型压缩与蒸馏方法
#45
使用 IDEFICS 进行图像任务
多模态模型 IDEFICS 实战
模型扩展 · 工具与生态
#46
Tokenizers 分词器
高性能文本分词系统
#47
多语言模型推理
跨语言模型部署
#48
创建自定义架构
从零设计模型结构
#49
创建自定义模型
定制模型完整开发流程
#50
聊天模板
对话模型 Prompt 模板设计
#51
Trainer
Transformers 高级训练接口
#52
导出为 ONNX
模型跨框架部署格式
#53
导出到 TFLite
移动端模型部署方案
#54
导出到 TorchScript
PyTorch 模型序列化
#55
基准测试
模型性能对比与测试
实践资源 · 社区 · 故障排查
#56
Transformers 笔记本
官方教程 Notebook 与实战案例汇总
#57
社区资源
生态社区、开源项目与学习资源导航
#58
故障排除
常见错误与排查解决方案大全
生态扩展 · 模块化 · 架构改造
#59
GGUF 和 Transformers 的交互
与 LLaMA.cpp 格式模型的兼容实践
#60
Tiktoken 与 Transformers 的交互
高效分词方案整合实战
#61
模块化 Transformers
组件化设计理念与工程拆分
#62
如何修改 Transformer 模型
模型结构改造与源码级调整方法
模型量化 · 低比特推理 · 压缩技术
#63
量化技术简介
模型压缩与低精度计算基础
#64
bitsandbytes 量化模型
8 位与 4 位量化大模型加载实战
#65
GPTQ 广义剪枝训练量化
基于 GPTQ 的权重量化方法
#66
AWQ 激活感知权重量化
激活驱动的权重量化技术
#67
AQLM 加性量化语言模型
加性量化的模型压缩理论与应用
#68
Optimum-quanto
PyTorch 多功能量化工具包详解
#69
EETQ
高性能张量量化方法
#70
HQQ 半二次量化
半二次优化的模型量化方法
#71
FBGEMM FP8 量化
权重与激活均为 8 位的量化方法
#72
Optimum
硬件加速与模型优化工具库
#73
TorchAO
PyTorch 官方架构优化库
#74
BitNet
超低比特神经网络探索
#75
压缩张量
张量压缩与存储优化技术
#76
添加新的量化方法
扩展自定义量化算法流程
性能优化 · 训练与推理加速
#77
性能优化概述
模型效率与扩展性系统讲解
#78
大型语言模型推理优化
推理阶段性能瓶颈与优化方案
#79
单 GPU 高效训练
资源受限场景下的大模型训练技巧
#80
多 GPU 高效训练
多卡训练架构与加速策略
#81
FSDP 分片并行
完全分片数据并行技术详解
#82
DeepSpeed
大模型训练加速框架
#83
CPU 高效训练
无 GPU 环境训练解决方案
#84
多 CPU 训练
多节点 CPU 并行训练方法
#85
TensorFlow TPU 训练
基于 TPU 的高性能训练
#86
Apple 芯片训练
在 Apple Silicon 上训练模型
#87
自定义硬件训练
适配非标准硬件进行模型训练
#88
Trainer 超参数搜索
自动寻找最优训练参数
#89
CPU 推理优化
单 CPU 推理性能提升
#90
多 CPU 推理优化
分布式 CPU 推理架构
#91
GPU 推理优化
利用 GPU 加速模型推理
#92
创建大型模型实例
超大模型加载与内存管理
#93
训练调试
模型训练问题定位与修复
#94
TensorFlow XLA 集成
XLA 编译加速与集成方案
#95
torch.compile 优化
PyTorch 2.0 编译加速技术
理论认知 · 架构理解 · 方法论
#96
哲学理念
大型模型背后的思想与工程哲学
#97
术语表
Transformers 核心概念词汇解释
#98
Transformers 能做什么
能力范围与应用场景全览
#99
Transformers 解决了哪些问题
深度学习中的关键突破分析
#100
Transformer 模型家族
主流模型结构关系图谱
#101
文本分词器概述
BPE、WordPiece 等算法详解
#102
注意力机制
Self-Attention 原理与推导
#103
填充与截断
序列长度对齐与批处理策略
#104
BERTology
基于 BERT 的研究方向与分析
#105
困惑度 Perplexity 应用
使用困惑度评估语言模型
服务部署 · 生产化 · 工程落地
#106
pipelines Web 推理服务
基于 pipelines 构建在线 API
#107
模型训练剖析
从 loss 到梯度的完整训练解析
#108
优化 LLM 部署技术
大规模模型生产环境优化策略