尚硅谷AI大模型之NLP教程

尚硅谷AI大模型之NLP教程|shaocun资源站 - 你的知识成长补给站
尚硅谷AI大模型之NLP教程
此内容为付费资源,请付费后查看
8.88
立即购买
您当前未登录!建议登陆后购买,可保存购买订单
付费资源

尚硅谷AI大模型之NLP教程

001_教程简介

002_教程概述

003_导论-常见任务

004_导论-技术演进历史

005_环境准备

006_文本表示-概述

007_文本表示-分词-英文分词

008_文本表示-分词-英文分词-BPE算法

009_文本表示-分词-中文分词

010_文本表示-分词-分词工具-概述

011_文本表示-分词-分词工具-jieba-分词模式

012_文本表示-分词-分词工具-jieba-分词模式-API

013_文本表示-分词-分词工具-jieba-自定义词典

014_文本表示-词表示-one-hot&语义化词向量-概述

015_文本表示-词表示-语义化词向量-Word2Vec-概述

016_文本表示-词表示-语义化词向量-Word2Vec-原理-Skip-Gram

017_文本表示-词表示-语义化词向量-Word2Vec-原理-CBOW

018_文本表示-词表示-语义化词向量-Word2Vec-获取-公开词向量-说明

019_文本表示-词表示-语义化词向量-Word2Vec-获取-公开词向量-编码

020_文本表示-词表示-语义化词向量-训练词向量-概述

021_文本表示-词表示-语义化词向量-训练词向量-实操

022_文本表示-词表示-语义化词向量-应用-概述

023_文本表示-词表示-语义化词向量-应用-编码

024_文本表示-词表示-语义化词向量-应用-OOV问题

025_文本表示-词表示-上下文相关词向量

026_传统序列模型-RNN-概述

027_传统序列模型-RNN-基础结构

028_传统序列模型-RNN-示意图

029_传统序列模型-RNN-多层结构

030_传统序列模型-RNN-双向结构

031_传统序列模型-RNN-多层+双向结构

032_传统序列模型-RNN-API-构造参数

033_传统序列模型-RNN-API-输入输出-概述

034_传统序列模型-RNN-API-输入输出-含义

035_传统序列模型-RNN-API-输入输出-形状分析

036_传统序列模型-RNN-API-小练习

037_传统序列模型-案例-概述

038_传统序列模型-案例-思路分析-数据集说明

039_传统序列模型-案例-思路分析-模型结构和训练思路

040_传统序列模型-RNN-案例-项目结构

041_传统序列模型-RNN-案例-数据预处理-思路分析

042_传统序列模型-RNN-案例-数据预处理-读取json文件

043_传统序列模型-RNN-案例-数据预处理-文件路径说明

044_传统序列模型-RNN-案例-数据预处理-文件路径处理

045_传统序列模型-RNN-案例-数据预处理-构建并保存词表

046_传统序列模型-RNN-案例-数据预处理-构建训练集

047_传统序列模型-RNN-案例-数据预处理-保存训练集&测试集

048_传统序列模型-RNN-案例-数据集-说明

049_传统序列模型-RNN-案例-数据集-编码

050_传统序列模型-RNN-案例-模型定义-初始化方法

051_传统序列模型-RNN-案例-模型定义-前向传播

052_传统序列模型-RNN-案例-训练脚本-环境准备

053_传统序列模型-RNN-案例-训练脚本-训练循环

054_传统序列模型-RNN-案例-训练脚本-单个轮次的训练逻辑

055_传统序列模型-RNN-案例-训练脚本-Tensorboard使用说明

056_传统序列模型-RNN-案例-训练脚本-保存模型

057_传统序列模型-RNN-案例-预测脚本-说明

058_传统序列模型-RNN-案例-预测脚本-编码-上

059_传统序列模型-RNN-案例-预测脚本-编码-下

060_传统序列模型-RNN-案例-评估脚本-说明

061_传统序列模型-RNN-案例-评估脚本-编码

062_传统序列模型-RNN-案例-代码改造说明

063_传统序列模型-RNN-案例-Tokenizer-说明

064_传统序列模型-RNN-案例-Tokenizer-编码

065_传统序列模型-RNN-存在问题-概述

066_传统序列模型-RNN-存在问题-分析

067_传统序列模型-LSTM-概述

068_传统序列模型-LSTM-基础结构-说明

069_传统序列模型-LSTM-缓解梯度消失和爆炸

070_传统序列模型-LSTM-复杂结构

071_传统序列模型-LSTM-API-构造参数

072_传统序列模型-LSTM-API-输入输出

073_传统序列模型-LSTM-案例-概述&思路分析

074_传统序列模型-LSTM-案例-数据处理-说明

075_传统序列模型-LSTM-案例-数据处理-编码-上

076_传统序列模型-LSTM-案例-数据处理-编码-下

077_传统序列模型-LSTM-案例-数据集

078_传统序列模型-LSTM-案例-模型定义

079_传统序列模型-LSTM-案例-模型训练

080_传统序列模型-LSTM-案例-模型预测

081_传统序列模型-LSTM-案例-模型评估

082_传统序列模型-LSTM-存在问题

083_传统序列模型-GRU-基础结构

084_传统序列模型-GRU-复杂结构&API使用说明

085_传统序列模型-GRU-案例实操

086_传统序列模型-LSTM_GRU_RNN横向对比

087_Seq2Seq-概述

088_Seq2Seq-模型结构-编码器

089_Seq2Seq-模型结构-解码器

090_Seq2Seq-模型结构-训练机制

091_Seq2Seq-模型结构-推理机制

092_Seq2Seq-模型结构-案例实操-概述

093_Seq2Seq-模型结构-案例实操-需求分析

094_Seq2Seq-模型结构-案例实操-数据预处理-读取文件

095_Seq2Seq-模型结构-案例实操-数据预处理-改造Tokenizer

096_Seq2Seq-模型结构-案例实操-数据预处理-词表构建

097_Seq2Seq-模型结构-案例实操-数据预处理-构建数据集

098_Seq2Seq-模型结构-案例实操-Dataloader

099_Seq2Seq-模型结构-案例实操-模型定义-编码器

100_Seq2Seq-模型结构-案例实操-模型定义-解码器

101_Seq2Seq-模型结构-案例实操-模型定义-完整模型

102_Seq2Seq-模型结构-案例实操-训练脚本-核心代码

103_Seq2Seq-模型结构-案例实操-训练脚本-pad_token处理逻辑

104_Seq2Seq-案例-预测脚本

105_Seq2Seq-案例-评估脚本-bleu说明

106_Seq2Seq-案例-评估脚本-编码

107_Seq2Seq-总结

108_Attention机制-概述

109_Attention机制-工作原理-概述

110_Attention机制-工作原理-具体步骤

111_Attention机制-注意力评分函数

112_Attention机制-案例-代码升级改造思路

113_Attention机制-案例-注意力机制-实现思路

114_Attention机制-案例-注意力机制-编码

115_Attention机制-案例-注意力机制-训练和预测逻辑修改

116_Transformer-概述

117_Transformer-核心思想

118_Transformer-模型结构-整体结构

119_Transformer-模型结构-编码器-概述

120_Transformer-模型结构-编码器-自注意力子层-生成QKV向量

121_Transformer-模型结构-编码器-自注意力子层-完整计算过程

122_Transformer-模型结构-编码器-自注意力子层-多头注意力

123_Transformer-模型结构-编码器-前馈神经网络层

124_Transformer-模型结构-编码器-残差连接&层归一化-概述

125_Transformer-模型结构-编码器-残差连接-说明

126_Transformer-模型结构-编码器-层归一化

127_Transformer-模型结构-编码器-位置编码

128_Transformer-模型结构-编码器-说明

129_Transformer-模型结构-编码器-小结

130_Transformer-模型结构-解码器-概述

131_Transformer-模型结构-解码器-Mask-Attention

132_Transformer-模型结构-解码器-Cross-Attention

133_Transformer-模型结构-解码器-小结

134_Transformer-实现细节-注意力为什么需要缩放

135_Transformer-实现细节-注意力如何感知相对位置

136_Transformer-模型训练和推理机制

137_Transformer-API-概述

138_Transformer-API-nn.Transformer-构造参数

139_Transformer-API-nn.Transformer-forward方法-概述

140_Transformer-API-nn.Transformer-forward方法-输入输出

141_Transformer-API-nn.Transformer-encoder&decoder

142_Transformer-案例-代码改造思路

143_Transformer-案例-模型定义-基础结构

144_Transformer-案例-模型定义-位置编码-简易实现

145_Transformer-案例-模型定义-位置编码-哈弗实现

146_Transformer-案例-模型定义-前向传播

147_Transformer-案例-训练脚本

148_Transformer-案例-预测&评估脚本

149_Transformer-哈佛版本-核心源码解读

150_预训练模型-概述

151_预训练模型-分类

152_预训练模型-主流模型-GPT-概述

153_预训练模型-主流模型-GPT-模型结构

154_预训练模型-主流模型-GPT-预训练

155_预训练模型-主流模型-GPT-微调

156_预训练模型-主流模型-BERT-概述

157_预训练模型-主流模型-BERT-模型结构

158_预训练模型-主流模型-BERT-微调

159_预训练模型-主流模型-BERT-预训练

160_预训练模型-主流模型-T5-概述&模型结构

161_预训练模型-主流模型-T5-预训练&微调

162_预训练模型-HF-概述

163_预训练模型-HF-模型加载-AutoModel

164_预训练模型-HF-模型加载-AutoModelForXXX

165_预训练模型-HF-模型使用

166_预训练模型-HF-Tokenizer-加载

167_预训练模型-HF-Tokenizer-使用

168_预训练模型-HF-Tokenizer-模型配合使用

169_预训练模型-HF-Datasets-概述

170_预训练模型-HF-Datasets-加载数据集

171_预训练模型-HF-Datasets-查看数据集

172_预训练模型-HF-Datasets-加载在线数据集

173_预训练模型-HF-Datasets-预处理数据集-过滤数据

174_预训练模型-HF-Datasets-预处理数据集-划分数据集

175_预训练模型-HF-Datasets-预处理数据集-map-上

176_预训练模型-HF-Datasets-预处理数据集-map-下

177_预训练模型-HF-Datasets-保存数据集

178_预训练模型-HF-Datasets-集成Dataloader

179_预训练模型-案例-数据预处理-上

180_预训练模型-案例-数据预处理-下

181_预训练模型-案例-Dataloader

182_预训练模型-案例-模型定义

183_预训练模型-案例-模型训练

184_预训练模型-案例-模型推理

185_预训练模型-案例-模型评估

186_预训练模型-案例-测试

187_预训练模型-案例-带任务头的预训练模型

© 版权声明
THE END
喜欢就支持一下吧
点赞1 分享
评论 抢沙发

请登录后发表评论

    暂无评论内容