价格: 90 学币

分类: AIGC

发布时间: 2025-07-02 14:42:39

最近更新: 2025-09-29 16:17:14

优惠: 钻石SVIP购买此课享受8折优惠

网盘下载地址

慕课 AI大模型算法-从大模型原理剖析到训练(微调)落地实战

课程介绍

AI大模型职业发展必备课程,助你快速掌握稀缺算法落地技能,冲击高薪AI岗位。课程深入拆解大模型原理、算法与训练调优,覆盖DeepSeek生态、Transformer、MoE、GRPO、预训练及微调(Fine-tuning)等核心技术。通过20+实战案例和政务系统、公文生成两大企业级项目,全流程涵盖开发、微调、部署及融合RAG和Agent技术。帮你全面提升大模型算法开发和应用能力,增强职场竞争力,抢占AI时代技术制高点。

资源目录

.
├── 第1章 课程导学与环境介绍/
│   ├── [235M]  1-1课程介绍与安排【不要错过】
│   ├── [183M]  1-2为什么在AI时代要学习大模型及其相关的理论知识
│   ├── [125M]  1-3中国开发者学习DeepSeek的意义
│   ├── [117M]  1-4大模型常用学习资源与模型下载
│   ├── [208M]  1-5Anaconda介绍及安装
│   ├── [100M]  1-6pycharm安装级连接远程服务器
│   └── [188M]  1-7按图索骥AI技术全景介绍
├── 第2章 【小试牛刀】DeepSeek认知与体验/
│   ├── [173M]  2-1ChatGPT的诞生和DeepSeek的追赶
│   ├── [164M]  2-2DeepSeek能力体验与大模型的影响
│   ├── [159M]  2-3小试牛刀1-基于DeepSeek结合提示工程搭建功能强大的翻译机
│   └── [190M]  2-4小试牛刀2-几行代码实现DeepSeek蒸馏模型私有化部署实战
├── 第3章 【大模型理论】DeepSeek的诞生之路/
│   ├── [ 22M]  3-1自然语言处理解决的是什么问题
│   ├── [ 26M]  3-2规则和统计学的方法
│   ├── [ 35M]  3-3为什么要使用词向量以及向量表示的作用
│   ├── [ 84M]  3-4如何获得一份表示良好的词向量?
│   ├── [ 16M]  3-5词向量的价值
│   ├── [172M]  3-6小试牛刀词向量实战
│   ├── [104M]  3-7预训练模型
│   └── [128M]  3-8小试牛刀预训练模型实战
├── 第4章 【特征编码器Transformer】深入理解大模型的输入输出/
│   ├── [ 41M]  4-1大模型的文本切分与Token
│   ├── [ 80M]  4-2大模型的Tokenizer
│   ├── [ 73M]  4-3深入理解Tokenizer的作用及影响
│   ├── [ 42M]  4-4【小试牛刀】Tokenizer实战
│   ├── [ 63M]  4-5深入理解BPE算法训练和编码过程
│   ├── [191M]  4-6【实战】手撸BPE算法训练代码
│   ├── [ 48M]  4-7初步了解大模型中的位置编码
│   ├── [ 21M]  4-8大模型的输出流程介绍
│   ├── [ 80M]  4-9大模型解码原理详细介绍
│   ├── [114M]  4-10【实战】寻找大模型最佳推理参数实战(一)
│   └── [111M]  4-11【实战】寻找大模型最佳推理参数实战(二)
└── 第5章 【特征编码器Transformer】深入Transfomer中的注意力机制/
    ├── [132M]  5-1Transformer基础知识准备
    ├── [244M]  5-2【实战】手撸LayerNorm代码
    ├── [152M]  5-3【实战】手撸softmax代码
    ├── [124M]  5-4深入理解注意力机制
    ├── [ 37M]  5-5掩码自注意力机制
    ├── [ 34M]  5-6多头注意力机制
    ├── [126M]  5-7【实战】手撸attention机制代码
    ├── [121M]  5-8【实战】手撸masked_self_attention
    ├── [115M]  5-9【实战】手撸MaskedMultiHeadAttention代码(1)
    └── [110M]  5-10【实战】手撸MaskedMultiHeadAttention代码(2)
├── 第5章 【特征编码器Transformer】深入Transfomer中的注意力机制/
│   ├── [132M]  5-1Transformer基础知识准备
│   ├── [243M]  5-2【实战】手撸LayerNorm代码
│   ├── [152M]  5-3【实战】手撸softmax代码
│   ├── [124M]  5-4深入理解注意力机制
│   ├── [ 37M]  5-5掩码自注意力机制
│   ├── [ 34M]  5-6多头注意力机制
│   ├── [126M]  5-7【实战】手撸attention机制代码
│   ├── [120M]  5-8【实战】手撸masked_self_attention
│   ├── [116M]  5-9【实战】手撸MaskedMultiHeadAttention代码(1)
│   ├── [110M]  5-10【实战】手撸MaskedMultiHeadAttention代码(2)
│   ├── [ 32M]  5-11残差连接和FFN
│   ├── [129M]  5-12【实战】手搓FFN和残差结构实现代码
│   ├── [108M]  5-13【实战】手撸TransformerDecoderBlock实现
│   ├── [135M]  5-14【实战】手撸Transformer整体代码(一)
│   ├── [193M]  5-15【实战】手撸Transformer整体代码(二)
│   ├── [ 50M]  5-16attention机制的进化:GQA和MQA
│   ├── [189M]  5-17【实战】手撸MQA注意力机制代码
│   ├── [ 95M]  5-18【实战】手撸GQA注意力机制代码(一)
│   └── [119M]  5-19【实战】手撸GQA注意力机制代码(二)
├── 第6章 【特征编码器Transformer】深入Transfomer中的位置编码/
│   ├── [ 62M]  6-1相对位置编码介绍
│   ├── [128M]  6-2旋转位置编码理论
│   ├── [ 75M]  6-3手撸旋转位置编码ROPE(1)
│   ├── [ 95M]  6-4手撸旋转位置编码ROPE(2)
│   ├── [116M]  6-5手撸旋转位置编码ROPE(3)
│   ├── [ 35M]  6-6旋转位置编码的核心参数及其影响
│   └── [ 62M]  6-7旋转位置编码的变种
├──   第7章 【预训练】大语言模型的预训练/
│   ├── [ 46M]  7-1大语言模型经典训练框架介绍
│   ├── [ 25M]  7-2大模型预训练(目标与任务)
│   ├── [ 53M]  7-3大模型预训练(MTPL多Token预测)
│   ├── [ 34M]  7-4大模型预训练(预训练数据和处理)
│   ├── [ 29M]  7-5大模型预训练(预训练过程)
│   ├── [ 51M]  7-6大模型的评估体系
│   ├── [ 62M]  7-7大模型代码能力的评估
│   ├── [ 61M]  7-8大模型数学能力的评估
│   ├── [ 56M]  7-9大模型阅读理解能力的评估
│   ├── [117M]  7-10大模型综合评测榜单介绍
│   ├── [197M]  7-11【实战】DeepSeek代码能力评估实战之(第一步:模型推理)
│   ├── [217M]  7-12【实战】DeepSeek代码能力评估实战之(第二步:模型结果处理)
│   └── [136M]  7-13【实战】DeepSeek代码能力评估之(第三步:代码执行检查)
├──   第8章 【预训练】 预训练的数据工程/
│   ├── [ 59M]  8-1大模型预训练的数据搜集过程(数据集1)
│   ├── [120M]  8-2大模型预训练的数据搜集过程(数据集2)
│   ├── [6.6M]  8-3大模型预训练的数据搜集过程(预训练数据构造流程)
│   ├── [ 25M]  8-4大模型预训练的数据处理过程(数据处理流程)
│   ├── @优库it资源网ukoou.com
│   ├── [128M]  8-5大模型预训练的数据处理过程(数据过滤+去重+审核)
│   ├── [ 90M]  8-6大语言模型预训练的多领域数据配比与学习顺序
│   ├── [ 55M]  8-7大模型安全问题
│   ├── [ 28M]  8-8大模型安全挑战:新型攻击与防御
│   └── [174M]  8-9LLM预训练领域数据配比DoReMI深度解读
├──   第9章 【预训练】 预训练的硬件体系讲解/
│   ├── [ 22M]  9-1大模型的分布式训练集群介绍
│   ├── [ 78M]  9-2大模型的分布式训练集群(参数服务器架构和去中心化架构)
│   ├── [102M]  9-3大模型的算力基础-显卡结构深度剖析
│   ├── [ 81M]  9-4大模型的算力基础-英伟达硬件架构体系(Fermi架构)
│   ├── [180M]  9-5大模型的算力基础-英伟达硬件架构体系(Ampere架构)
│   ├── [108M]  9-6大模型训练通信提效之Nvlink
│   ├── [131M]  9-7大模型训练通信提效之拓扑结构
│   └── [ 86M]  9-8大模型分布式训练通信协议NCCL、GRPC、HTTP
├──   第10章 【预训练】 大模型分布式预训练过程/
│   ├── [109M]  10-1大模型分布式训练概要-预训练任务与损失函数
│   ├── [107M]  10-2实战_手撸交叉熵损失函数代码
│   ├── [ 64M]  10-3大模型分布式训练之数据并行
│   ├── [ 38M]  10-4大模型分布式训练之模型并行概述
│   ├── [ 40M]  10-5大模型分布式训练模型并行之Embedding层并行
│   ├── [ 77M]  10-6Embedding并行代码解读
│   ├── [ 56M]  10-7模型并行之深入理解矩阵乘法并行原理
│   ├── [113M]  10-8模型并行之深入理解矩阵乘法并行代码解析
│   ├── [ 77M]  10-9模型并行之深入理解交叉熵损失的并行原理
│   ├── [105M]  10-10模型并行之深入理解交叉熵损失并行的代码
│   ├── [ 49M]  10-11模型并行之深入理解流水线并行
│   ├── [ 39M]  10-12分布式训练之异构系统并行
│   ├── [ 53M]  10-13大模型训练显存占用分析
│   ├── [144M]  10-14分布式训练软件框架deepspeed
│   ├── [ 55M]  10-15deepspeedzerodpstage1
│   ├── [ 39M]  10-16deepspeedzerodpstage2
│   ├── [ 27M]  10-17deepspeedzerodpstage3
│   └── [ 38M]  10-18deepspeedzerooffload
├──   第11章 【后训练】有监督微调/
│   ├── [ 61M]  11-1大语言模型的预训练和后训练
│   ├── [104M]  11-2大语言模型的指令微调技术
│   ├── [ 78M]  11-3大模型微调的评估方法
│   ├── [ 77M]  11-4大语言模型微调的数据构造
│   ├── [ 40M]  11-5大语言模型中的思维链数据
│   └── [ 74M]  11-6大语言模型微调框架llamafactory
├──   第12章 【后训练】参数高效督微调/
│   ├── [ 35M]  12-1参数高效微调概述
│   ├── [ 55M]  12-2深入理解lora参数高效微调的原理
│   ├── [101M]  12-3深入理解prefixtuning和prompttuning
│   └── [ 50M]  12-4深入理解AdapterTuning
├──   第13章 【后训练】强化学习基础/
│   ├── [ 60M]  13-1人类反馈式强化学习概述
│   ├── [ 94M]  13-2强化学习(基本概念+策略)
│   ├── [ 66M]  13-3强化学习的基本概念(值函数)
│   ├── [ 42M]  13-4贝尔曼方程介绍
│   ├── [134M]  13-5随机策略梯度算法
│   ├── [137M]  13-6【实战】强化学习实战之环境建模
│   ├── [ 64M]  13-7【实战】强化学习实战之策略评估
│   └── [ 72M]  13-8【实战】强化学习实战之策略优化
├──   第14章 【后训练】人类反馈式强化学习/
│   ├── [ 74M]  14-1奖励模型介绍
│   ├── [ 70M]  14-2PPO算法详解(1)
│   ├── [142M]  14-3PPO算法详解(2)
│   ├── [ 61M]  14-4PPO算法训练过程详解
│   ├── [ 73M]  14-5手撸奖励模型代码(1)
│   ├── [153M]  14-6手撸奖励模型代码(2)
│   └── [229M]  14-7PPO算法代码深入理解
├──   第15章 【DeepSeek核心技术解密】国产AI的崛起 DeepSeek核心技术突破/
│   ├── [133M]  15-1DeepSeek模型创新点介绍
│   ├── [101M]  15-2kvcache
│   ├── [132M]  15-3深入理解MLA机制和原理
│   ├── [151M]  15-4手撸MLA实现代码(1)
│   ├── [129M]  15-5手撸MLA实现代码(2)
│   ├── [133M]  15-6深入立即MOE机制和原理
│   └── [162M]  15-7手撸MOE实现代码
├──   第16章 【DeepSeek核心技术解密】DeepSeek V3与DeepSeek R1/
│   ├── [135M]  16-1深入理解大模型逻辑推理能力
│   ├── [141M]  16-2深入理解思维链技术
│   ├── [140M]  16-3深入理解GRPO算法
│   ├── [ 16M]  16-4GRPO实战项目任务介绍(2)
│   ├── [ 61M]  16-5辅助函数实现
│   ├── [ 72M]  16-6奖励函数的设计与实现
│   ├── [121M]  16-7数据加载与处理
│   └── [178M]  16-8手撸GRPO训练代码
└──   第17章 【企业落地实战】赋能千行百业:大模型落地应用透析/
    ├── [ 96M]  17-1大模型落地应用能力详解
    ├── [146M]  17-2大模型落地应用核心方法论介绍
    ├── [136M]  17-3大模型落地应用典型场景与案例介绍
    └── [104M]  17-4大模型落地应用的挑战
└── 代码/