【资源介绍】:

从核心原理、技术+ PEFT微调大模型+ LangChain构建知识库问答,你也能打造属于自己的大模型ChatGPT
结合ChatGPT实现智能助手只是第一步?企业真正急迫需求是构建符合自己业务需求的AI智能助手,核心技能训练和微调私有的大模型?本课深入企业需求,从ChatGPT背后原理、技术、不同大模型知识开始,带你从0到1训练出一个大模型,运用PEFT技巧微调大模型解决场景需求,最后用LangChain+训练的大模型搭建知识库问答。让你掌握大模型LLM构建的原理、技术、流程与实战,超越大多数竞争者,抢占先机,脱颖而出。

【资源目录】:

├──{1}–第1章 课程介绍
| ├──[1.1]–1-1 【导航】课程导学&让你快速了解课程_ev.mp4 39.64M
| ├──[1.2]–1-2 【内容安排】课程安排和学习建议_ev.mp4 13.59M
| ├──[1.3]–1-3 【行业发展】ChatGPT对行业、社会有什么影响,我们要_ev.mp4 39.54M
| ├──[1.4]–1-4 【发展史】ChatGPT的简要历史_ev.mp4 16.34M
| └──[1.5]–1-5 【学习须知】本课程为什么使用gpt2而不是gpt3_ev.mp4 5.87M
├──{2}–第2章 训练模型与开发平台环境
| ├──[2.1]–2-1 【认知】为什么要引入paddle?平时使用torch,学_ev.mp4 9.13M
| ├──[2.2]–2-2 【框架】paddle和torch与tensorflow对_ev.mp4 11.15M
| ├──[2.3]–2-3 【NLP工具和预训练模型】paddleNLP和huggi_ev.mp4 5.62M
| ├──[2.4]–2-4 【平台】介绍aistudio_ev.mp4 23.93M
| └──[2.5]–2-5 【工具】介绍基于gpt4的IDE cursor_ev.mp4 19.28M
├──{3}–第3章 chatGPT初始技术词向量原理剖析与实战
| ├──[3.10]–3-10 【激活函数】常见七种激活函数对比_ev.mp4 21.61M
| ├──[3.11]–3-11 【预训练语言模型】RNN-LSTM-ELMO_ev.mp4 37.75M
| ├──[3.12]–3-12 本章梳理小结_ev.mp4 5.50M
| ├──[3.1]–3-1 【认知】词向量,词向量与gpt的关系_ev.mp4 8.72M
| ├──[3.2]–3-2 【语言模型】语言模型和评估指标PPL_ev.mp4 23.18M
| ├──[3.3]–3-3 【词向量模型】word2vec-cbow和skipgra_ev.mp4 14.53M
| ├──[3.4]–3-4 【softmax加速】是softmax 树型优化_ev.mp4 25.76M
| ├──[3.5]–3-5 【softmax加速】softmax负采样优化_ev.mp4 20.85M
| ├──[3.6]–3-6 【数据准备与预处理】word2vec实战(1)_ev.mp4 57.20M
| ├──[3.7]–3-7 【数据准备与预处理】word2vec实战(2)_ev.mp4 31.50M
| ├──[3.8]–3-8 【模型训练】word2vec实战-模型开发和训练(1)_ev.mp4 25.01M
| └──[3.9]–3-9 【模型训练】word2vec实战-模型开发和训练(2)_ev.mp4 35.64M
├──{4}–第4章 chatGPT基石模型——基于T
| ├──[4.10]–4-10 transformer-xl解决长序列的问题(2)_ev.mp4 27.97M
| ├──[4.11]–4-11 本章梳理总结_ev.mp4 6.76M
| ├──[4.1]–4-1 本章介绍_ev.mp4 2.18M
| ├──[4.2]–4-2 seq2seq结构和注意力_ev.mp4 23.75M
| ├──[4.3]–4-3 seq2seq-attention的一个案例_ev.mp4 11.11M
| ├──[4.4]–4-4 transformer的multi-head atten_ev.mp4 39.60M
| ├──[4.5]–4-5 transformer的残差链接-解决梯度消失问题_ev.mp4 12.56M
| ├──[4.6]–4-6 transformer的layernorm-归一化提升训_ev.mp4 10.75M
| ├──[4.7]–4-7 transformer的decoder 解码器_ev.mp4 14.68M
| ├──[4.8]–4-8 sparse-transformer 稀疏模型_ev.mp4 11.23M
| └──[4.9]–4-9 transformer-xl 解决长序列的问题(1)_ev.mp4 26.78M
├──{5}–第5章 基于Transformer另一分支Bert系列分析与实战
| ├──[5.10]–5-10 bert(transformer encoder)主要_ev.mp4 44.74M
| ├──[5.11]–5-11 bert(transformer encoder)的完_ev.mp4 91.56M
| ├──[5.12]–5-12 Ernie文心一言基础模型(1)_ev.mp4 26.20M
| ├──[5.13]–5-13 Ernie文心一言基础模型(2)_ev.mp4 13.12M
| ├──[5.14]–5-14 plato百度对话模型(1)_ev.mp4 28.03M
| ├──[5.15]–5-15 plato 百度对话模型(2)_ev.mp4 29.35M
| ├──[5.16]–5-16 本章总结_ev.mp4 12.74M
| ├──[5.1]–5-1 本章介绍_ev.mp4 1.87M
| ├──[5.2]–5-2 metric-评估指标(BLUE-rouge-L-MET_ev.mp4 34.23M
| ├──[5.3]–5-3 常见 subword 算法(BPE-wordpiece)_ev.mp4 10.25M
| ├──[5.4]–5-4 常见的NLP任务_ev.mp4 10.50M
| ├──[5.5]–5-5 bert 预训练模型_ev.mp4 41.76M
| ├──[5.6]–5-6 bert情感分析实战—-paddle(1)_ev.mp4 53.22M
| ├──[5.7]–5-7 bert情感分析实战—-paddle(2)_ev.mp4 57.61M
| ├──[5.8]–5-8 evaluate和predict方法—-paddle_ev.mp4 30.47M
| └──[5.9]–5-9 bert(transformer encoder)主要源_ev.mp4 45.19M
├──{6}–第6章 chatGPT的核心技术——强化
| ├──[6.10]–6-10 actor-critic(2)_ev.mp4 12.06M
| ├──[6.11]–6-11 TRPO+PPO(1)_ev.mp4 40.93M
| ├──[6.12]–6-12 TRPO+PPO(2)_ev.mp4 28.62M
| ├──[6.13]–6-13 DQN代码实践–torch-1_ev.mp4 44.11M
| ├──[6.14]–6-14 DQN代码实践–torch-2_ev.mp4 49.49M
| ├──[6.15]–6-15 DoubleDQN+DuelingDQ代码–torc_ev.mp4 52.98M
| ├──[6.16]–6-16 REINFORCE代码–torch_ev.mp4 47.87M
| ├──[6.17]–6-17 PPO代码实践–torch_ev.mp4 65.55M
| ├──[6.18]–6-18 强化学习-本章总结_ev.mp4 16.85M
| ├──[6.1]–6-1 RL是什么&为什么要学习RL_ev.mp4 21.46M
| ├──[6.2]–6-2 强化学习章介绍_ev.mp4 4.41M
| ├──[6.3]–6-3 RL基础概念_ev.mp4 12.17M
| ├──[6.4]–6-4 RL马尔可夫过程_ev.mp4 28.77M
| ├──[6.5]–6-5 RL三种方法(1)_ev.mp4 30.12M
| ├──[6.6]–6-6 RL三种方法(2)_ev.mp4 10.65M
| ├──[6.7]–6-7 DQN和DQN的2种改进算法(1)_ev.mp4 20.26M
| ├──[6.8]–6-8 DQN和DQN的2种改进算法(2)_ev.mp4 24.63M
| └──[6.9]–6-9 actor-critic(1)_ev.mp4 38.68M
├──{7}–第7章 chatGPT技术演变——从GP
| ├──[7.10]–7-10 Antropic LLM大型语言模型_ev.mp4 40.83M
| ├──[7.11]–7-11 GPT-本章总结_ev.mp4 12.89M
| ├──[7.1]–7-1 GPT1 模型_ev.mp4 25.22M
| ├──[7.2]–7-2 GPT2 模型_ev.mp4 25.93M
| ├──[7.3]–7-3 GPT3 模型-1_ev.mp4 31.94M
| ├──[7.4]–7-4 GPT3 模型-2_ev.mp4 28.06M
| ├──[7.5]–7-5 gpt-codex 基于GPT技术开发的模型_ev.mp4 23.54M
| ├──[7.6]–7-6 alphaCode基于GPT技术开发的模型-1_ev.mp4 28.90M
| ├──[7.7]–7-7 alphaCode基于GPT技术开发的模型-2_ev.mp4 16.84M
| ├──[7.8]–7-8 instruct-gpt 基于GPT技术开发的模型-1_ev.mp4 21.78M
| └──[7.9]–7-9 instruct-gpt 基于GPT技术开发的模型-2_ev.mp4 27.07M
└──{8}–第8章 RLHF训练类ChatGPT模型代码实战 i class
| ├──[8.10]–8-10 RLHF强化学习人类反馈的训练-model-base_ev.mp4 24.08M
| ├──[8.11]–8-11 RLHF强化学习人类反馈的训练-model-opt_ev.mp4 13.28M
| ├──[8.13]–8-13 RLHF强化学习人类反馈的训练-generation(_ev.mp4 48.79M
| ├──[8.14]–8-14 RLHF强化学习人类反馈的训练-exp_maker(1_ev.mp4 32.05M
| ├──[8.15]–8-15 RLHF强化学习人类反馈的训练-exp_maker(2_ev.mp4 43.19M
| ├──[8.16]–8-16 RLHF强化学习人类反馈的训练-buffer-util_ev.mp4 56.03M
| ├──[8.17]–8-17 RLHF强化学习人类反馈的训练-buffer-loss_ev.mp4 45.66M
| ├──[8.19]–8-19 RLHF强化学习人类反馈的训练-main_ev.mp4 68.91M
| ├──[8.1]–8-1 chatGPT训练实战_ev.mp4 13.24M
| ├──[8.2]–8-2 SFT有监督的训练-数据处理_ev.mp4 63.07M
| ├──[8.3]–8-3 SFT有监督训练-trainer_ev.mp4 37.66M
| ├──[8.4]–8-4 SFT有监督训练-train_ev.mp4 63.73M
| ├──[8.5]–8-5 RM训练-model+dataset(1)_ev.mp4 27.00M
| ├──[8.6]–8-6 RM训练-model+dataset(2)_ev.mp4 25.81M
| ├──[8.7]–8-7 RM训练-trainer_ev.mp4 31.29M
| ├──[8.8]–8-8 RM训练-train-rm_ev.mp4 35.55M
| └──[8.9]–8-9 RLHF强化学习人类反馈的训练-dataset_ev.mp4 14.38M

本站所有资源版权均属于原作者所有,这里所提供资源均只能用于参考学习用,请勿直接商用。若由于商用引起版权纠纷,一切责任均由使用者承担。更多说明请参考 VIP介绍。

最常见的情况是下载不完整: 可对比下载完压缩包的与网盘上的容量,若小于网盘提示的容量则是这个原因。这是浏览器下载的bug,建议用百度网盘软件或迅雷下载。 若排除这种情况,可在对应资源底部留言,或联络我们。

对于会员专享、整站源码、程序插件、网站模板、网页模版等类型的素材,文章内用于介绍的图片通常并不包含在对应可供下载素材包内。这些相关商业图片需另外购买,且本站不负责(也没有办法)找到出处。 同样地一些字体文件也是这种情况,但部分素材会在素材包内有一份字体下载链接清单。

如果您已经成功付款但是网站没有弹出成功提示,请联系站长提供付款信息为您处理

源码素材属于虚拟商品,具有可复制性,可传播性,一旦授予,不接受任何形式的退款、换货要求。请您在购买获取之前确认好 是您所需要的资源