AI大模型职业发展必备课程,助你快速掌握稀缺算法落地技能,冲击高薪AI岗位。课程深入拆解大模型原理、算法与训练调优,覆盖DeepSeek生态、Transformer、MoE、GRPO、预训练及微调(Fine-tuning)等核心技术。通过20+实战案例和政务系统、公文生成两大企业级项目,全流程涵盖开发、微调、部署及融合RAG和Agent技术。帮你全面提升大模型算法开发和应用能力,增强职场竞争力,抢占AI时代技术制高点。
.
├── 第1章 课程导学与环境介绍/
│ ├── [235M] 1-1课程介绍与安排【不要错过】
│ ├── [183M] 1-2为什么在AI时代要学习大模型及其相关的理论知识
│ ├── [125M] 1-3中国开发者学习DeepSeek的意义
│ ├── [117M] 1-4大模型常用学习资源与模型下载
│ ├── [208M] 1-5Anaconda介绍及安装
│ ├── [100M] 1-6pycharm安装级连接远程服务器
│ └── [188M] 1-7按图索骥AI技术全景介绍
├── 第2章 【小试牛刀】DeepSeek认知与体验/
│ ├── [173M] 2-1ChatGPT的诞生和DeepSeek的追赶
│ ├── [164M] 2-2DeepSeek能力体验与大模型的影响
│ ├── [159M] 2-3小试牛刀1-基于DeepSeek结合提示工程搭建功能强大的翻译机
│ └── [190M] 2-4小试牛刀2-几行代码实现DeepSeek蒸馏模型私有化部署实战
├── 第3章 【大模型理论】DeepSeek的诞生之路/
│ ├── [ 22M] 3-1自然语言处理解决的是什么问题
│ ├── [ 26M] 3-2规则和统计学的方法
│ ├── [ 35M] 3-3为什么要使用词向量以及向量表示的作用
│ ├── [ 84M] 3-4如何获得一份表示良好的词向量?
│ ├── [ 16M] 3-5词向量的价值
│ ├── [172M] 3-6小试牛刀词向量实战
│ ├── [104M] 3-7预训练模型
│ └── [128M] 3-8小试牛刀预训练模型实战
├── 第4章 【特征编码器Transformer】深入理解大模型的输入输出/
│ ├── [ 41M] 4-1大模型的文本切分与Token
│ ├── [ 80M] 4-2大模型的Tokenizer
│ ├── [ 73M] 4-3深入理解Tokenizer的作用及影响
│ ├── [ 42M] 4-4【小试牛刀】Tokenizer实战
│ ├── [ 63M] 4-5深入理解BPE算法训练和编码过程
│ ├── [191M] 4-6【实战】手撸BPE算法训练代码
│ ├── [ 48M] 4-7初步了解大模型中的位置编码
│ ├── [ 21M] 4-8大模型的输出流程介绍
│ ├── [ 80M] 4-9大模型解码原理详细介绍
│ ├── [114M] 4-10【实战】寻找大模型最佳推理参数实战(一)
│ └── [111M] 4-11【实战】寻找大模型最佳推理参数实战(二)
└── 第5章 【特征编码器Transformer】深入Transfomer中的注意力机制/
├── [132M] 5-1Transformer基础知识准备
├── [244M] 5-2【实战】手撸LayerNorm代码
├── [152M] 5-3【实战】手撸softmax代码
├── [124M] 5-4深入理解注意力机制
├── [ 37M] 5-5掩码自注意力机制
├── [ 34M] 5-6多头注意力机制
├── [126M] 5-7【实战】手撸attention机制代码
├── [121M] 5-8【实战】手撸masked_self_attention
├── [115M] 5-9【实战】手撸MaskedMultiHeadAttention代码(1)
└── [110M] 5-10【实战】手撸MaskedMultiHeadAttention代码(2)