PS 本站不保证资源的完整性,不对其真实性负责。请自行确认是否符合个人需求。如有介意,请勿获取。
- 第1章Tensorflow简介与环境搭建 【11 节 | 129分钟】
- 视频:1-2 Tensorflow是什么 (09:38)
- 视频:1-3 Tensorflow版本变迁与tf1.0架构 (09:00)
- 视频:1-6 Tensorflow环境配置 (04:48)
- 视频:1-7 Google_cloud无GPU环境搭建 (12:55)
- 视频:1-8 Google_cloud_远程jupyter_notebook配置 (15:35)
- 视频:1-9 Google_cloud_gpu_tensorflow配置 (12:42)
- 视频:1-10 Google_cloud_gpu_tensorflow镜像配置 (10:32)
- 视频:1-11 AWS云平台环境配置 (13:22)
- 第2章Tensorflowkeras实战 【18 节 | 195分钟】
- 视频:2-1 tfkeras简介 (09:18)
- 视频:2-2 分类回归与目标函数 (08:02)
- 视频:2-3 实战分类模型之数据读取与展示 (13:04)
- 视频:2-4 实战分类模型之模型构建 (17:24)
- 视频:2-5 实战分类模型之数据归一化 (07:55)
- 视频:2-6 实战回调函数 (11:13)
- 视频:2-7 实战回归模型 (16:05)
- 视频:2-8 神经网络讲解 (11:18)
- 视频:2-9 实战深度神经网络 (08:38)
- 视频:2-10 实战批归一化、激活函数、dropout (13:51)
- 视频:2-11 wide_deep模型 (15:13)
- 视频:2-12 函数API实现wide&deep模型 (07:04)
- 视频:2-13 子类API实现wide&deep模型 (06:19)
- 视频:2-14 wide&deep模型的多输入与多输出实战 (11:29)
- 视频:2-15 超参数搜索 (09:10)
- 视频:2-16 手动实现超参数搜索实战 (09:33)
- 视频:2-17 实战sklearn封装keras模型 (09:38)
- 视频:2-18 实战sklearn超参数搜索 (09:20)
- 第3章Tensorflow基础API使用 【13 节 | 124分钟】
- 视频:3-1 tf基础API引入 (05:07)
- 视频:3-2 实战tf.constant (07:09)
- 视频:3-3 实战tf.strings与ragged tensor (08:09)
- 视频:3-4 实战sparse tensor与tf.Variable (11:13)
- 视频:3-5 实战自定义损失函数与DenseLayer回顾 (09:27)
- 视频:3-6 使子类与lambda分别实战自定义层次 (12:31)
- 视频:3-7 tf.function函数转换 (07:56)
- 视频:3-8 @tf.function函数转换 (08:45)
- 视频:3-9 函数签名与图结构 (12:45)
- 视频:3-10 近似求导 (07:44)
- 视频:3-11 tf.GradientTape基本使用方法 (14:55)
- 视频:3-12 tf.GradientTape与tf.keras结合使用 (15:46)
- 视频:3-13 章节总结 (01:41)
- 第4章Tensorflowdataset使用 【9 节 | 108分钟】
- 视频:4-1 data_API引入 (03:59)
- 视频:4-2 tf_data基础API使用 (13:44)
- 视频:4-3 生成csv文件 (13:15)
- 视频:4-4 tf.io.decode_csv使用 (12:46)
- 视频:4-5 tf.data读取csv文件并与tf.keras结合使用 (15:29)
- 视频:4-6 tfrecord基础API使用 (18:34)
- 视频:4-7 生成tfrecords文件 (20:34)
- 视频:4-8 tf.data读取tfrecord文件并与tf.keras结合使用 (08:19)
- 视频:4-9 章节总结 (00:57)
- 第5章TensorflowEstimator使用与tf1.0 【12 节 | 131分钟】
- 视频:5-1 课程引入 (03:04)
- 视频:5-2 泰坦尼克问题引入分析 (12:24)
- 视频:5-3 feature_column使用 (13:26)
- 视频:5-4 keras_to_estimator (08:49)
- 视频:5-5 预定义estimator使用 (12:06)
- 视频:5-6 交叉特征实战 (08:09)
- 视频:5-7 TF1.0引入 (03:37)
- 视频:5-8 TF1.0计算图构建 (09:51)
- 视频:5-9 TF1.0模型训练 (09:48)
- 视频:5-10 TF1_dataset使用 (14:54)
- 视频:5-11 TF1_自定义estimator (16:30)
- 视频:5-12 API改动升级与课程总结 (17:43)
- 第6章卷积神经网络 【14 节 | 139分钟】
- 视频:6-1 卷积神经网络引入与总体结构 (07:57)
- 视频:6-2 卷积解决的问题 (07:57)
- 视频:6-3 卷积的计算 (08:18)
- 视频:6-4 池化操作 (03:41)
- 视频:6-5 卷积神经网络实战 (10:05)
- 视频:6-6 深度可分离卷积网络 (11:20)
- 视频:6-7 深度可分离卷积网络实战 (04:46)
- 视频:6-8 Kaggle平台与10monkeys数据集介绍 (06:21)
- 视频:6-9 Keras generator读取数据 (16:48)
- 视频:6-10 10monkeys基础模型搭建与训练 (12:58)
- 视频:6-11 10monkeys模型微调 (16:10)
- 视频:6-12 keras generator读取cifar10数据集 (16:58)
- 视频:6-13 模型训练与预测 (09:56)
- 视频:6-14 章节总结 (04:39)
- 第7章循环神经网络 【13 节 | 141分钟】
- 视频:7-1 循环神经网络引入与embedding (07:31)
- 视频:7-2 数据集载入与构建词表索引 (09:47)
- 视频:7-3 数据padding、模型构建与训练 (11:12)
- 视频:7-4 序列式问题与循环神经网络 (13:00)
- 视频:7-5 循环神经网络实战文本分类 (14:41)
- 视频:7-6 文本生成之数据处理 (14:04)
- 视频:7-7 文本生成实战之构建模型 (16:48)
- 视频:7-8 文本生成实战之采样生成文本 (13:16)
- 视频:7-9 LSTM长短期记忆网络 (08:26)
- 视频:7-10 LSTM文本分类与文本生成实战 (09:14)
- 视频:7-11 subword文本分类之数据集载入与tokenizer (10:16)
- 视频:7-12 subword文本分类之dataset变换与模型训练 (08:33)
- 视频:7-13 章节总结 (03:28)
- 第8章Tensorflow分布式 【9 节 | 91分钟】
- 视频:8-1 课程引入与GPU设置 (05:55)
- 视频:8-2 GPU默认设置 (08:03)
- 视频:8-3 内存增长和虚拟设备实战 (09:24)
- 视频:8-4 GPU手动设置实战 (08:46)
- 视频:8-5 分布式策略 (12:08)
- 视频:8-6 keras分布式实战 (08:15)
- 视频:8-7 estimator分布式实战 (08:29)
- 视频:8-8 自定义流程实战 (17:06)
- 视频:8-9 分布式自定义流程实战 (12:43)
- 第9章Tensorflow模型保存与部署 【9 节 | 106分钟】
- 视频:9-1 课程引入与TFLite_x264 (12:25)
- 视频:9-2 保存模型结构加参数与保存参数实战 (07:09)
- 视频:9-3 Keras模型转化为SavedModel (11:30)
- 视频:9-4 签名函数转化为SavedModel (05:22)
- 视频:9-5 签名函数,SavedModel和Keras模型到具体函数转换 (06:22)
- 视频:9-6 tflite保存与解释与量化 (19:08)
- 视频:9-7 tensorflowjs转换模型 (14:40)
- 视频:9-8 tensorflowjs搭建服务器载入模型实战 (14:33)
- 视频:9-9 Android部署模型实战与总结 (14:10)
- 第10章机器翻译 【33 节 | 376分钟】
- 视频:10-1 课程引入与seq2seq+attention模型讲解 (10:25)
- 视频:10-2 数据预处理理与读取 (16:15)
- 视频:10-3 数据id化与dataset生成 (13:32)
- 视频:10-4 Encoder构建 (08:18)
- 视频:10-5 attention构建 (08:12)
- 视频:10-6 Decoder构建 (10:45)
- 视频:10-7 损失函数与单步训练函数 (10:14)
- 视频:10-8 模型训练 (06:46)
- 视频:10-9 模型预测实现 (16:11)
- 视频:10-10 样例例分析与总结 (08:59)
- 视频:10-11 Transformer模型总体架构 (10:24)
- 视频:10-12 Encoder-Decoder架构与缩放点击注意力 (09:56)
- 视频:10-13 多头注意力与位置编码 (08:56)
- 视频:10-14 Add、Normalize、Decoding过程与总结 (07:59)
- 视频:10-15 数据预处理与dataset生成 (20:09)
- 视频:10-16 位置编码 (10:47)
- 视频:10-17 mask构建 (07:54)
- 视频:10-18 缩放点积注意力机制实现(1) (10:32)
- 视频:10-19 缩放点积注意力机制实现(2) (08:00)
- 视频:10-20 多头注意力机制实现 (15:34)
- 视频:10-21 feedforward层次实现 (02:24)
- 视频:10-22 EncoderLayer实现 (11:33)
- 视频:10-23 DecoderLayer实现 (13:34)
- 视频:10-24 EncoderModel实现 (11:12)
- 视频:10-25 DecoderModel实现 (11:50)
- 视频:10-26 Transformer实现 (13:50)
- 视频:10-27 自定义学习率 (11:23)
- 视频:10-28 Mask创建与使用 (18:12)
- 视频:10-29 模型训练 (14:03)
- 视频:10-30 模型预测实现 (15:10)
- 视频:10-31 attention可视化 (12:32)
- 视频:10-32 示例展示与实战总结 (11:35)
- 视频:10-33 GPT与Bert与课程总结 (08:13)
© 版权声明
THE END
暂无评论内容