价格: 39 学币

分类: AIGC

发布时间: 2023-11-02 19:22:24

最近更新: 2024-03-18 18:56:08

资源类型: VIP

优惠: 开通VIP/SVIP免费获取此资源

开通VIP享受更多优惠 网盘下载地址

慕课网从0到1训练自己的大模型 揭密ChatGPT背后的技能与应用

课程介绍

从0到1训练私有大模型 ,企业急迫需求,抢占市场先机视频教程,由优库it资源网整理发布。本课深入企业需求,从ChatGPT背后原理、技术、不同大模型知识开始,带你从0到1训练出一个大模型,运用PEFT技巧微调大模型解决场景需求,最后用LangChain+训练的大模型搭建知识库问答。让你掌握大模型LLM构建的原理、技术、流程与实战,超越大多数竞争者,抢占先机,脱颖而出。

相关推荐

极客时间-AI 大模型应用开发实战营
ChatGPT入门实战课 成为AI时代更有竞争力的开发者

你将学会

  1. 从0到1训练你自己的大模型
  2. ChatGPT等大模型的训练原理
  3. 多NLP任务逻辑解决实际问题
  4. PEFT微调大模型解决场景需求
  5. 揭密核心BERT和GPT等大模型
  6. LangChain+大模型问答搭建

资源目录

.
├──   1-课程介绍/
│   ├── [ 40M]  1-1 【导航】课程导学&让你快速了解课程
│   ├── [ 11M]  1-2 【内容安排】课程安排和学习建议
│   ├── [ 39M]  1-3 【行业发展】ChatGPT对行业、社会有什么影响,我们要如何应对
│   ├── [ 15M]  1-4 【发展史】ChatGPT的简要历史
│   └── [6.3M]  1-5 【学习须知】本课程为什么使用gpt2而不是gpt3
├──   2-训练模型与开发平台环境/
│   ├── [8.9M]  2-1 【认知】为什么要引入paddle?平时使用torch,学习paddle貌似没用怎么办?
│   ├── [9.0M]  2-2 【框架】paddle和torch与tensorflow对比
│   ├── [5.3M]  2-3 【NLP工具和预训练模型】paddleNLP和huggingface
│   ├── [ 24M]  2-4 【平台】介绍aistudio
│   └── [ 19M]  2-5 【工具】介绍基于gpt4的IDE cursor
├──   3-chatGPT初始技术词向量原理剖析与实战/
│   ├── [6.9M]  3-1 【认知】词向量,词向量与gpt的关系
│   ├── [ 20M]  3-2 【语言模型】语言模型和评估指标PPL
│   ├── [ 16M]  3-3 【词向量模型】word2vec-cbow和skipgram
│   ├── [ 22M]  3-4 【softmax加速】是softmax 树型优化
│   ├── [ 18M]  3-5 【softmax加速】softmax负采样优化
│   ├── [ 57M]  3-6 【数据准备与预处理】word2vec实战(1)
│   ├── [ 42M]  3-7 【数据准备与预处理】word2vec实战(2)
│   ├── [ 26M]  3-8 【模型训练】word2vec实战-模型开发和训练(1)
│   ├── [ 36M]  3-9 【模型训练】word2vec实战-模型开发和训练(2)
│   ├── [ 18M]  3-10 【激活函数】常见七种激活函数对比
│   ├── [ 36M]  3-11 【预训练语言模型】RNN-LSTM-ELMO
│   └── [5.0M]  3-12 本章梳理小结
├──   4-chatGPT基石模型——基于Transformer架构的语言模型/
│   ├── [2.2M]  4-1  本章介绍
│   ├── [ 21M]  4-2 seq2seq结构和注意力
│   ├── [ 11M]  4-3 seq2seq-attention的一个案例
│   ├── [ 49M]  4-4 transformer的multi-head attention 多头注意力机制
│   ├── [ 16M]  4-5 transformer的残差链接-解决梯度消失问题
│   ├── [9.7M]  4-6 transformer的layernorm-归一化提升训练稳定性
│   ├── [ 19M]  4-7 transformer的decoder 解码器
│   ├── [ 10M]  4-8 sparse-transformer 稀疏模型
│   ├── [ 33M]  4-9  transformer-xl 解决长序列的问题(1)
│   ├── [ 36M]  4-10 transformer-xl解决长序列的问题(2)
│   └── [6.0M]  4-11   本章梳理总结
├──   5-基于Transformer另一分支Bert系列分析与实战/
│   ├── [1.8M]  5-1   本章介绍
│   ├── [ 31M]  5-2 metric-评估指标(BLUE-rouge-L-METOER-NIST)
│   ├── [9.5M]  5-3 常见 subword 算法(BPE-wordpiece)
│   ├── [9.5M]  5-4 常见的NLP任务
│   ├── [ 50M]  5-5 bert 预训练模型
│   ├── [ 43M]  5-6 bert情感分析实战----paddle(1)
│   ├── [ 49M]  5-7 bert情感分析实战----paddle(2)
│   ├── [ 24M]  5-8 evaluate和predict方法----paddle
│   ├── [ 39M]  5-9 bert(transformer encoder)主要源码分析----paddle(1)
│   ├── [ 39M]  5-10 bert(transformer encoder)主要源码分析----paddle(2)
│   ├── [ 68M]  5-11 bert(transformer encoder)的完整源码cache部分分析----paddle
│   ├── [ 34M]  5-12 Ernie文心一言基础模型(1)
│   ├── [ 15M]  5-13 Ernie文心一言基础模型(2)
│   ├── [ 33M]  5-14 plato百度对话模型(1)
│   ├── [ 31M]  5-15 plato 百度对话模型(2)
│   └── [ 15M]  5-16     本章总结
├──   6-chatGPT的核心技术——强化学习/
│   ├── [ 18M]  6-1 RL是什么&为什么要学习RL
│   ├── [4.0M]  6-2 强化学习章介绍
│   ├── [ 11M]  6-3 RL基础概念
│   ├── [ 25M]  6-4 RL马尔可夫过程
│   ├── [ 29M]  6-5 RL三种方法(1)
│   ├── [ 10M]  6-6 RL三种方法(2)
│   ├── [ 16M]  6-7 DQN和DQN的2种改进算法(1)
│   ├── [ 25M]  6-8 DQN和DQN的2种改进算法(2)
│   ├── [ 42M]  6-9 actor-critic(1)
│   ├── [ 11M]  6-10 actor-critic(2)
│   ├── [ 46M]  6-11 TRPO+PPO(1)
│   ├── [ 31M]  6-12 TRPO+PPO(2)
│   ├── [ 45M]  6-13 DQN代码实践--torch-1
│   ├── [ 47M]  6-14 DQN代码实践--torch-2
│   ├── [ 47M]  6-15 DoubleDQN+DuelingDQ代码--torch
│   ├── [ 47M]  6-16 REINFORCE代码--torch
│   ├── [ 63M]  6-17 PPO代码实践--torch
│   └── [ 20M]  6-18 强化学习-本章总结
├──   7-chatGPT技术演变——从GPT 1 开始的大模型发展与演化/
│   ├── 【认准一手完整 www.ukoou.com】
│   ├── [ 30M]  7-1 GPT1 模型
│   ├── [ 32M]  7-2 GPT2 模型
│   ├── [ 35M]  7-3 GPT3 模型-1
│   ├── [ 27M]  7-4 GPT3 模型-2
│   ├── [ 27M]  7-5 gpt-codex 基于GPT技术开发的模型
│   ├── [ 35M]  7-6 alphaCode基于GPT技术开发的模型-1
│   ├── [ 20M]  7-7 alphaCode基于GPT技术开发的模型-2
│   ├── [ 23M]  7-8 instruct-gpt 基于GPT技术开发的模型-1
│   ├── [ 26M]  7-9 instruct-gpt 基于GPT技术开发的模型-2
│   ├── [ 44M]  7-10 Antropic LLM大型语言模型
│   └── [ 16M]  7-11 GPT-本章总结
├──   8-RLHF训练类ChatGPT模型代码实战/
│   ├── [ 11M]  8-1 chatGPT训练实战
│   ├── [ 61M]  8-2 SFT有监督的训练-数据处理
│   ├── [ 39M]  8-3 SFT有监督训练-trainer
│   ├── [ 62M]  8-4 SFT有监督训练-train
│   ├── [ 34M]  8-5 RM训练-model+dataset(1)
│   ├── [ 30M]  8-6 RM训练-model+dataset(2)
│   ├── [ 30M]  8-7 RM训练-trainer
│   ├── [ 38M]  8-8 RM训练-train-rm
│   ├── [ 17M]  8-9 RLHF强化学习人类反馈的训练-dataset
│   ├── [ 27M]  8-10 RLHF强化学习人类反馈的训练-model-base
│   ├── [ 17M]  8-11 RLHF强化学习人类反馈的训练-model-opt
│   ├── [ 46M]  8-12 RLHF强化学习人类反馈的训练-generation(1)
│   ├── [ 48M]  8-13 RLHF强化学习人类反馈的训练-generation(2)
│   ├── [ 36M]  8-14 RLHF强化学习人类反馈的训练-exp_maker(1)
│   ├── [ 42M]  8-15 RLHF强化学习人类反馈的训练-exp_maker(2)
│   ├── [ 59M]  8-16 RLHF强化学习人类反馈的训练-buffer-utils
│   ├── [ 46M]  8-17 RLHF强化学习人类反馈的训练-buffer-loss
│   ├── [ 57M]  8-18 RLHF强化学习人类反馈的训练-trainer
│   └── [ 66M]  8-19 RLHF强化学习人类反馈的训练-main
├── 第9章 低成本微调大模型方法PEFT(LoRA等) — 训练 &ChatGLM2& 项目/
│   ├── [ 43M]  9-1参数高效微调方法peft-bitfit
│   ├── [ 26M]  9-2参数高效微调方法prefix-t
│   ├── [ 16M]  9-3参数高效微调方法prompt-t
│   ├── [ 22M]  9-4参数高效微调方法p-tuning
│   ├── [ 19M]  9-5参数高效微调方法p-tuningv2
│   ├── [ 12M]  9-6参数高效微调方法lora
│   ├── [ 45M]  9-7高效调参方案实现prompt_tuning-1
│   ├── [ 33M]  9-8高效调参方案实现prompt_tuning-2
│   ├── [ 42M]  9-9高效调参方案实现p-tuning
│   ├── [ 56M]  9-10高效调参方案实现prefix-tuning
│   ├── [ 41M]  9-11高效调参方案实现lora-01
│   ├── [ 42M]  9-12高效调参方案实现lora-02
│   ├── [ 44M]  9-13高效调参方案实现lora-03
│   ├── [ 46M]  9-14AdaLora微调ChatGLM2实战-1
│   ├── [ 61M]  9-15AdaLora微调ChatGLM2实战-2
│   └── [ 31M]  9-16PEFT-本章总结
├── 第10章 langchain+训练大模型ChatGLM2 构建“知识库问答”/
│   ├── [ 15M]  10-1基于langchain的应用
│   ├── [ 57M]  10-2langchain初探与实战
│   ├── [ 38M]  10-3langchain实现mini-QA
│   ├── [ 21M]  10-4工业场景知识库LLM助手的设计
│   └── [ 20M]  10-5langchain和知识增强LLM总结
└── 第11章 课程总结/
    ├── [ 25M]  11-1课程总结(1)
    └── [ 23M]  11-2课程总结(2)
└── 资料代码/