玩转机器学习之神经网络,系统入门算法工程师

本站官方QQ群:116064591

PS 本站不保证资源的完整性,不对其真实性负责。请自行确认是否符合个人需求。如有介意,请勿获取。

  • 第1章初识深度学习 【8 节 | 34分钟】
    • 视频:1-2 本章内容介绍 (01:19)
    • 视频:1-3 神经网络&深度学习 (08:22)
    • 视频:1-4 深度学习路线图 (06:07)
    • 视频:1-5 深度学习应用 (08:27)
    • 视频:1-6 本章总结 (01:24)
    • 视频:1-7 【拓展知识】来自老司机深度学习得一些建议
    • 图文:1-8 【任务题】找一篇深度学习论文粗读
  • 第2章入门必修:单、多层感知机 【17 节 | 152分钟】
    • 视频:2-1 本章内容介绍 (01:28)
    • 视频:2-2 深度学习实施的一般过程 (07:34)
    • 视频:2-3 逻辑回归 (06:00)
    • 视频:2-4 逻辑回归损失函数 (09:18)
    • 视频:2-5 逻辑回归示例 (12:17)
    • 视频:2-6 单层、多层感知机 (08:51)
    • 视频:2-7 pytorch 构建单多层感知机 (19:53)
    • 视频:2-8 基于多层DNN假钞识别 (01:43)
    • 视频:2-9 数据集及特征分析 (05:49)
    • 视频:2-10 项目构建和模型训练(1) (16:43)
    • 视频:2-11 项目构建和模型训练(2) (14:25)
    • 视频:2-12 项目构建和模型训练(3) (16:27)
    • 视频:2-13 项目构建和模型训练(4) (15:58)
    • 视频:2-14 模型评估和选择 (13:02)
    • 视频:2-15 本章总结 (02:24)
    • 图文:2-16 【拓展知识】用多层感知机回归
    • 作业:2-17 【任务题】结合实际数据进行神经网络过程推理
  • 第3章深度学习基础组件精讲 【11 节 | 116分钟】
    • 视频:3-1 本章内容介绍 (02:30)
    • 视频:3-2 如何划分和处理你的数据集 (06:27)
    • 视频:3-4 激活函数选择 (16:32)
    • 视频:3-5 优化器选择 (20:00)
    • 视频:3-6 Normalization 增强模型训练(上) (17:40)
    • 视频:3-7 Normalization 增强模型训练(下) (15:38)
    • 视频:3-8 使用正则提升模型表现 (19:13)
    • 视频:3-9 本章总结 (03:40)
    • 视频:3-10 【拓展知识】典型的 loss 函数
    • 图文:3-11 【任务题】完善全连接网络
  • 第4章图像处理利器:卷积神经网络 【22 节 | 251分钟】
    • 视频:4-1 本章内容介绍 (02:06)
    • 视频:4-2 人类视觉和卷积神经网络关系 (07:46)
    • 视频:4-4 卷积运算是怎样的过程(上) (15:58)
    • 视频:4-5 卷积运算是怎样的过程(下) (13:56)
    • 视频:4-6 用池化进行下采样 (15:54)
    • 视频:4-7 几种卷积的变体(上) (15:19)
    • 视频:4-8 几种卷积的变体(下) (14:49)
    • 视频:4-9 利用残差搭建更深的网络 (16:30)
    • 视频:4-10 Vgg介绍及实现 (24:02)
    • 视频:4-11 图片的数据增广 (15:15)
    • 视频:4-12 手势识别应用来源和项目分析 (06:27)
    • 视频:4-13 模型设计 (08:12)
    • 视频:4-14 MoocTrialNet模型搭建(1) (16:18)
    • 视频:4-15 MoocTrialNet模型搭建(2) (14:04)
    • 视频:4-16 MoocTrialNet模型搭建(3) (18:12)
    • 视频:4-17 MoocTrialNet模型搭建(4) (17:58)
    • 视频:4-18 MoocTrialNet模型搭建(5) (07:45)
    • 视频:4-19 模型评估和选择 (10:09)
    • 视频:4-20 本章总结 (04:22)
    • 视频:4-21 【拓展知识】近年来ILSVRC上最好模型
    • 图文:4-22 【任务题】独立完成一个CNN的项目
  • 第5章为序列数据而生:RNN系列 【19 节 | 191分钟】
    • 视频:5-1 本章内容介绍 (02:43)
    • 视频:5-2 什么是序列模型 (12:25)
    • 视频:5-3 不同的RNN应用类型:OvM, MvM (04:26)
    • 视频:5-4 循环神经网络原理 (19:18)
    • 视频:5-5 用BPTT 训练RNN (05:06)
    • 视频:5-6 两个重要的变体:LSTMGRU(上) (15:25)
    • 视频:5-7 两个重要的变体:LSTMGRU(下) (14:08)
    • 视频:5-8 利用双向、多层RNN增强模型 (16:02)
    • 视频:5-9 典型应用范式:Encoder-Decoder (05:50)
    • 视频:5-10 GRU实现唤醒词识别 (07:20)
    • 视频:5-11 基于双层、双向GRU的命令词识别模型搭建(1) (16:12)
    • 视频:5-12 基于双层、双向GRU的命令词识别模型搭建(2) (15:29)
    • 视频:5-13 基于双层、双向GRU的命令词识别模型搭建(3) (16:52)
    • 视频:5-14 基于双层、双向GRU的命令词识别模型搭建(4) (14:32)
    • 视频:5-15 基于双层、双向GRU的命令词识别模型搭建(5) (09:26)
    • 视频:5-16 模型评估和选择 (10:02)
    • 视频:5-17 本章总结 (05:15)
    • 图文:5-18 【拓展知识】序列到序列模型知识整理
    • 作业:5-19 【任务题】LSTM模型搭建
  • 第6章深度学习新思路:GAN网络 【21 节 | 255分钟】
    • 视频:6-1 本章内容介绍 (03:23)
    • 视频:6-2 什么是生成式模型? (12:58)
    • 视频:6-3 GAN的原理(上) (12:04)
    • 视频:6-4 GAN的原理(下) (11:58)
    • 视频:6-5 GAN的一些变体之:CycleGAN (14:26)
    • 视频:6-6 GAN的一些变体之:StyleGAN(上) (10:38)
    • 视频:6-7 GAN的一些变体之:StyleGAN(下) (10:20)
    • 视频:6-8 GAN的一些变体之:DCGAN (03:48)
    • 视频:6-9 GAN的一些变体之:text-to-image (09:12)
    • 视频:6-10 用DCGAN生成人脸照片 (04:14)
    • 视频:6-11 超参和dataset编写 (28:03)
    • 视频:6-12 generator编写 (28:24)
    • 视频:6-13 discriminator编写 (16:01)
    • 视频:6-14 trainer 编写(1) (16:39)
    • 视频:6-15 trainer 编写(2) (16:28)
    • 视频:6-16 trainer 编写(3) (17:05)
    • 视频:6-17 trainer 编写(4) (15:08)
    • 视频:6-18 怎么检查GAN的训练过程? (19:35)
    • 视频:6-19 本章总结 (04:31)
    • 图文:6-20 【拓展知识】GAN在NLP、Speech中的一些应用
    • 作业:6-21 【任务题】复现Gan项目
  • 第7章赋予模型认知能力:注意力机制 【24 节 | 312分钟】
    • 视频:7-1 本章内容介绍 (02:28)
    • 视频:7-2 什么是注意力机制? (07:40)
    • 视频:7-3 注意力机制的一般性原理 (09:31)
    • 视频:7-4 几种典型的注意力机制 hard、soft、local attention (10:12)
    • 视频:7-5 自注意力机制:self-attention (14:03)
    • 视频:7-6 Transformer (14:03)
    • 视频:7-7 用Transformer实现G2P(上) (17:42)
    • 视频:7-8 用Transformer实现G2P(下) (16:21)
    • 视频:7-9 g2p dataset 编写 (27:31)
    • 视频:7-10 model结构和位置编码 (20:48)
    • 视频:7-11 encoder (19:18)
    • 视频:7-12 Multi-head attention(上) (18:23)
    • 视频:7-13 Multi-head attention(下) (21:45)
    • 视频:7-14 Pointwise FeedForward (06:49)
    • 视频:7-15 decoder (21:52)
    • 视频:7-16 transformer(上) (19:59)
    • 视频:7-17 transformer(下) (06:07)
    • 视频:7-18 trainer脚本编写 (12:29)
    • 视频:7-19 infer推理函数编写 (13:49)
    • 视频:7-20 inference和attention map展示(上) (14:15)
    • 视频:7-21 inference和attention map展示(下) (12:10)
    • 视频:7-22 本章总结 (03:52)
    • 图文:7-23 【拓展知识】 几种典型的注意力机制和原理
    • 作业:7-24 【任务题】Transformer实现
  • 第8章数据不够怎么办?迁移学习来帮忙 【10 节 | 78分钟】
    • 视频:8-1 本章内容介绍 (02:01)
    • 视频:8-2 什么是迁移学习 (07:26)
    • 视频:8-3 迁移学习分类 (11:46)
    • 视频:8-4 怎么实施迁移学习? (09:18)
    • 视频:8-5 基于ResNet迁移学习的姿势识别 (09:09)
    • 视频:8-6 工程代码(上) (13:16)
    • 视频:8-7 工程代码(下) (11:31)
    • 视频:8-8 inference (09:20)
    • 视频:8-9 本章总结 (03:45)
    • 图文:8-10 【拓展知识】迁移学习前沿进展
  • 第9章深度学习新范式:半监督学习 【19 节 | 202分钟】
    • 视频:9-1 本章内容介绍 (02:19)
    • 视频:9-2 半监督学习是什么? (06:01)
    • 视频:9-3 半监督学习能解决什么问题? (05:30)
    • 视频:9-4 几种典型的半监督学习方法(上) (13:34)
    • 视频:9-5 几种典型的半监督学习方法(下) (11:44)
    • 视频:9-6 在Cifar10上实现MixMatch半监督学习-论文拆解 (08:10)
    • 视频:9-7 超参和dataset (09:32)
    • 视频:9-8 utils编写(1) (17:59)
    • 视频:9-9 utils编写(2) (17:22)
    • 视频:9-10 utils编写(3) (13:33)
    • 视频:9-11 utils编写(4) (09:23)
    • 视频:9-12 model编写 (06:49)
    • 视频:9-13 loss 编写 (08:48)
    • 视频:9-14 trainer 编写(1) (15:45)
    • 视频:9-15 trainer 编写(2) (14:43)
    • 视频:9-16 trainer 编写(3) (17:23)
    • 视频:9-17 trainer 编写(4) (20:22)
    • 视频:9-18 本章总结 (02:59)
    • 图文:9-19 【拓展知识】SOTA半监督学习(ImageNet)
© 版权声明
THE END
点个赞吧~
点赞95
玩转机器学习之神经网络,系统入门算法工程师 | 疯奇社
玩转机器学习之神经网络,系统入门算法工程师
此内容为付费资源,请付费后查看
50积分
付费资源
已售 89
坐论 抢沙发

请登录后发表评论

    暂无评论内容