吾爱编程

标题: 私有模型训练与部署 大模型全栈开发全景学习路径 从Python/PyTorch到LLaMA架构解析 [打印本页]

作者: admin    时间: 6 小时前
标题: 私有模型训练与部署 大模型全栈开发全景学习路径 从Python/PyTorch到LLaMA架构解析
===============课程介绍===============

本课程是一门为大模型时代量身定制的“从入门到精通”全栈实战课程。我们精心设计了一条清晰的学习路径,确保不同基础的学员都能稳步攀登。课程从必需的 Python编程 与 PyTorch深度学习框架 基础开始,扫清技术障碍;随后通过 “10小时NLP高效入门” 模块,系统学习神经网络、RNN等核心概念,为理解大模型奠定坚实基础。核心阶段,课程将深度精讲Transformer与顶尖的LLaMA架构,从注意力机制到旋转位置编码、KV缓存,带您逐行复现代码,透彻理解其设计精髓。

===============课程目录===============


(1)\【配套】10小时NLP高效入门;目录中文件数:26个
├─01_【神经网络入门】1 SSE与二分类交叉熵损失.mp4
├─02_【神经网络入门】2 二分类交叉熵的原理与实现.mp4
├─03_【神经网络入门】3 多分类交叉熵的原理与实现.mp4
├─04_【DNN】1 梯度下降中的两个关键问题.mp4
├─05_【DNN】2.1 反向传播的原理.mp4
├─06_【DNN】2.2 反向传播的实现.mp4
├─07_【DNN】3 走出第一步:动量法Momentum.mp4
├─08_【DNN】4 开始迭代:batch与epochs.mp4
├─09_【DNN】5.1 在Fashion-MNIST数据集上实现完整的神经网络(上).mp4
├─10_【DNN】5.2 在Fashion-MNIST数据集上实现完整的神经网络(下).mp4
├─11_【RNN】1.1 欢迎来到NLP的世界.mp4
├─12_【RNN】1.2 大模型的行业影响与发展.mp4
├─13_【RNN】2.1 深度学习中的时间序列数据.mp4
├─14_【RNN】2.2 文字序列数据 - 结构与分词操作.mp4
├─15_【RNN】2.3 文字序列数据 - Token与编码.mp4
├─16_【RNN】3.1~3.2 RNN的架构与数据流.mp4
├─17_【RNN】3.3 各类NLP任务下循环神经网络的输入与输出.mp4
├─18_【RNN】3.4.1 认识PyTorch中nn.RNN层.mp4
├─19_【RNN】3.4.2 在PyTorch中实现RNN.mp4
├─20_【RNN】3.4.3 深度神经网络的实现.mp4
├─21_【RNN】3.4.4 自定义循环层中的循环数据流.mp4
├─22_【RNN】3.4.5 双向循环神经网络.mp4
├─23_【RNN】3.4.6【加餐】手动实现RNN执行情感分类任务.mp4
├─24_【RNN】3.4.7【加餐】手动实现RNN执行文本生成任务.mp4
├─25_【RNN】3.5.1 RNN反向传播的数学流程.mp4
├─26_【RNN】3.5.2 RNN各类缺陷的数学本质.mp4
(2)\【配套】2小时从0到1训练LlaMA模型;目录中文件数:6个
├─01 环境准备与算力准备.mp4
├─02 预训练微调数据集准备.mp4
├─03 训练定制化Tokenizer.mp4
├─04 llama-like模型的预训练(上).mp4
├─05 llama-like模型的预训练(下).mp4
├─06 指令微调 + 结果展示.mp4
(3)\【配套】python基础;目录中文件数:31个
├─Lesson 1.Hello World!.mp4
├─Lesson 10.列表的常用方法(一).mp4
├─Lesson 11.列表常用方法(二).mp4
├─Lesson 12.元组对象的创建与索引.mp4
├─Lesson 13.元组的常用方法.mp4
├─Lesson 14.字典对象的创建与索引.mp4
├─Lesson 15.字典的常用方法.mp4
├─Lesson 16.集合的创建(新).mp4
├─Lesson 17.集合的常用方法(新).mp4
├─Lesson 18.冻集合的创建与使用.mp4
├─Lesson 19.控制语句(一):判别语句.mp4
├─Lesson 2.数值型对象的创建.mp4
├─Lesson 20.控制语句(二):循环语句.mp4
├─Lesson 21.控制语句(三):条件循环.mp4
├─Lesson 22.函数(一):函数的使用.mp4
├─Lesson 23.函数(二):函数的参数.mp4
├─Lesson 24.函数(三):变量作用域与lambda函数.mp4
├─Lesson 25.类的创建.mp4
├─Lesson 26.类的方法和继承.mp4
├─Lesson 27.NumPy基础.mp4
├─Lesson 28.NumPy数组的常用方法.mp4
├─Lesson 29.NumPy的广播与科学计算.mp4
├─Lesson 3.数值型对象的科学运算.mp4
├─Lesson 30.Pandas入门.mp4
├─Lesson 31.DataFrame数据结构基础.mp4
├─Lesson 4.布尔型对象.mp4
├─Lesson 5.字符串型对象的创建.mp4
├─Lesson 6.字符串索引.mp4
├─Lesson 7.字符串的常用方法(一).mp4
├─Lesson 8.字符串常用方法(二).mp4
├─Lesson 9.列表对象的创建与索引.mp4
(4)\【配套】大模型入门基础;目录中文件数:24个
├─01_【预习课】Lesson 1 谷歌邮箱Gmail注册.mp4
├─02_【预习课】Lesson 2 OpenAI账号注册.mp4
├─03_【预习课】Lesson 3 ChatGPT Plus升级流程.mp4
├─04_【预习课】Lesson 4 ChatGPT防封指南.mp4
├─05_Ch 1.1 OpenAI官网使用说明.mp4
├─06_Ch 1.2 本地调用OpenAI API方法.mp4
├─07_Ch 2.1 Completion模型与Chat模型介绍.mp4
├─08_Ch 2.2 Completion.create函数参数详解.mp4
├─09_Ch 2.3 Completion.create函数调参数实践.mp4
├─10_Ch 2.4手动创建可调节对话风格的对话机器人创建.mp4
├─11_Ch 3.1 大语言模型原生能力与涌现能力介绍.mp4
├─12_Ch 3.2 提示工程技术入门.mp4
├─13_Ch 4.1 One-shot&Few-shot提示方法.mp4
├─14_Ch 4.2 Zero-shot-CoT提示法(新).mp4
├─15_Ch 4.3Few-shot-CoT提示法.mp4
├─16_Ch 4.4 LtM提示方法.mp4
├─17_Ch 5.1 SCAN指令翻译项目介绍与数据集准备.mp4
├─18_Ch 5.2 针对SCAN数据集的Few-shot-LtM提示工程流程.mp4
├─19_Ch 5.3 SCAN指令翻译项目完整建模流程.mp4
├─20_Ch 6.1 Chat Completion模型背景介绍.mp4
├─21_Ch 6.2 Chat Completion模型发展现状.mp4
├─22_Ch 7.1 Chat Completion模型API详解.mp4
├─23_Ch 7.2 Messages参数设置技巧.mp4
├─24_Ch 7.3 基于特定知识的简易问答机器人创建方法.mp4
(5)\【配套】大模型必备PyTorch基础;目录中文件数:18个
├─Lesson 1 张量的创建与常用方法.mp4
├─Lesson 2 张量的索引、分片、合并及维度调整.mp4
├─Lesson 3 张量的广播和科学运算.mp4
├─Lesson 4 张量的线性代数运算.mp4
├─Lesson 5 基本优化方法与最小二乘法.mp4
├─Lesson 6 动态计算图与梯度下降入门.mp4
├─Lesson 7.1 神经网络的诞生与发展.mp4
├─Lesson 7.2 机器学习中的基本概念.mp4
├─Lesson 7.3 深入理解PyTorch框架.mp4
├─Lesson 8.1单层回归神经网络 & Tensor新手避坑指南.mp4
├─Lesson 8.2 torch.nn.Linear实现单层回归网络的正向传播.mp4
├─Lesson 8.3 二分类神经网络的原理与实现.mp4
├─Lesson 8.4 torch.nn.functional实现单层二分类网络的正向传播.mp4
├─Lesson 8.5 多分类神经网络.mp4
├─Lesson 9.1 从异或门问题认识多层神经网络.mp4
├─Lesson 9.2 黑箱:深度神经网络的不可解释性.mp4
├─Lesson 9.3 & 9.4 层与激活函数.mp4
├─Lesson 9.5 从0实现深度神经网络的正向传播.mp4
(6)\第一阶段  大模型顶尖架构原理精讲;目录中文件数:27个
├─00 不同基础不同目标的学习路径规划.mp4
├─【LLaMA】1 LLaMA中的Decoder架构详解.mp4
├─【LLaMA】2 LLaMA中的Embedding层.mp4
├─【LLaMA】3 RMSNorm均方根层归一化.mp4
├─【LLaMA】4 旋转位置编码ROPE.mp4
├─【LLaMA】4.5 旋转位置编码的Q&A.mp4
├─【LLaMA】5 KV缓存的原理与初步实现.mp4
├─【LLaMA】5.5 时间复杂度、机器翻译等Q&A.mp4
├─【LLaMA】原理与架构复现 Part 2.mp4
├─【LLaMA】原理与架构复现 Part 3.mp4
├─【LLaMA】原理与架构复现 Part 4.mp4
├─【Transformer】1 Transformer与注意力机制入门.mp4
├─【Transformer】10 编码器结构详解之前馈神经网络FFN.mp4
├─【Transformer】11 完整Transformer结构下的解码器Decoder.mp4
├─【Transformer】12 Decoder的输入与teacher forcing.mp4
├─【Transformer】13 掩码与掩码注意力机制.mp4
├─【Transformer】14 填充掩码与前瞻掩码的实现.mp4
├─【Transformer】15 编码-解码注意力层.mp4
├─【Transformer】16 Decoder-Only结构下的Decoder.mp4
├─【Transformer】2 Attention注意力机制的本质.mp4
├─【Transformer】3 Transformer中的注意力计算流程 & 多头注意力机制.mp4
├─【Transformer】4 Transformer的基本架构.mp4
├─【Transformer】5 Embedding与位置编码.mp4
├─【Transformer】6 正余弦编码的数学与实用意义.mp4
├─【Transformer】7 正余弦编码的实际计算与高维空间可视化.mp4
├─【Transformer】8 编码器结构详解之残差链接.mp4
├─【Transformer】9 编码器结构详解之Layer Normalization.mp4








欢迎光临 吾爱编程 (http://www.52pg.net/) Powered by Discuz! X3.2