吴恩达《深度学习》视频课程全集

21.4万
703
2022-01-18 16:00:09
3148
3131
1.6万
1159
吴恩达老师的《深度学习》视频课程全集,720p画质,双语字幕。 本人参与了字幕的翻译工作,也组织了课程的文字笔记撰写。 课程笔记在github:https://github.com/fengdu78/deeplearning_ai_books
视频选集
(1/181)
自动连播
第一课-1.1 欢迎
05:33
第一课-1.2 什么是神经网络?
07:05
第一课-1.3 用神经网络进行监督学习
08:30
第一课-1.4 为什么深度学习会兴起?
10:22
第一课-2.1 二分分类
08:24
第一课-2.2 logistic 回归
06:00
第一课-2.3 logistic 回归损失函数
08:12
第一课-2.4 梯度下降法
11:24
第一课-2.5 导数
07:11
第一课-2.6 更多导数的例子
10:49
第一课-2.7 计算图
03:34
第一课-2.8 计算图的导数计算
14:51
第一课-2.9 logistic 回归中的梯度下降法
06:43
第一课-2.10 m 个样本的梯度下降
08:01
第一课-2.11 向量化
08:05
第一课-2.12 向量化的更多例子
06:22
第一课-2.13 向量化 logistic 回归
07:33
第一课-2.14 向量化 logistic 回归的梯度输出
09:38
第一课-2.15 Python 中的广播
11:07
第一课-2.16 关于 python _ numpy 向量的说明
06:50
第一课-2.17 Jupyter _ ipython 笔记本的快速指南
03:57
第一课-2.18 (选修)logistic 损失函数的解释
07:15
第一课-3.1 神经网络概览
04:27
第一课-3.2 神经网络表示
05:15
第一课-3.3 计算神经网络的输出
09:59
第一课-3.4 多个例子中的向量化
09:06
第一课-3.5 向量化实现的解释
07:38
第一课-3.6 激活函数
10:57
第一课-3.7 为什么需要非线性激活函数?
05:37
第一课-3.8 激活函数的导数
07:58
第一课-3.9 神经网络的梯度下降法
09:58
第一课-3.10 (选修)直观理解反向传播
15:49
第一课-3.11 随机初始化
07:58
第一课-4.1 深层神经网络
05:52
第一课-4.2 前向和反向传播
10:30
第一课-4.3 深层网络中的前向传播
07:16
第一课-4.4 核对矩阵的维数
11:11
第一课-4.5 为什么使用深层表示
10:34
第一课-4.6 搭建深层神经网络块
08:34
第一课-4.7 参数 VS 超参数
07:17
第一课-4.8 这和大脑有什么关系?
03:18
第二课-1.1 训练_开发_测试集
12:05
第二课-1.2 偏差_方差
08:47
第二课-1.3 机器学习基础
06:22
第二课-1.4 正则化
09:43
第二课-1.5 为什么正则化可以减少过拟合?
07:10
第二课-1.6 Dropout 正则化
09:26
第二课-1.7 理解 Dropout
07:05
第二课-1.8 其他正则化方法
08:25
第二课-1.9 归一化输入
05:31
第二课-1.10 梯度消失与梯度爆炸
06:08
第二课-1.11 神经网络的权重初始化
06:13
第二课-1.12 梯度的数值逼近
06:36
第二课-1.13 梯度检验
06:35
第二课-1.14 关于梯度检验实现的注记
05:19
第二课-2.1 Mini-batch 梯度下降法
11:29
第二课-2.2 理解 mini-batch 梯度下降法
08:15
第二课-2.3 指数加权平均
05:59
第二课-2.4 理解指数加权平均
05:58
第二课-2.5 指数加权平均的偏差修正
04:12
第二课-2.6 动量梯度下降法
09:21
第二课-2.7 RMSprop
07:42
第二课-2.8 Adam 优化算法
07:08
第二课-2.9 学习率衰减
06:45
第二课-2.10 局部最优的问题
05:24
第二课-3.1 调试处理
07:11
第二课-3.2 为超参数选择合适的范围
08:51
第二课-3.3 超参数训练的实践:Pandas VS Caviar
06:52
第二课-3.4 正则化网络的激活函数
08:56
第二课-3.5 将 Batch Norm 拟合进神经网络
12:56
第二课-3.6 Batch Norm 为什么奏效?
11:40
第二课-3.7 测试时的 Batch Norm
05:47
第二课-3.8 Softmax 回归
11:48
第二课-3.9 训练一个 Softmax 分类器
10:08
第二课-3.10 深度学习框架
04:16
第二课-3.11 TensorFlow
16:08
第三课-1.1 为什么是 ML 策略
02:43
第三课-1.2 正交化
06:40
第三课-1.3 单一数字评估指标
07:17
第三课-1.4 满足和优化指标
05:32
第三课-1.5 训练_开发_测试集划分
06:36
第三课-1.6 开发集合测试集的大小
05:40
第三课-1.7 什么时候该改变开发_测试集和指标
08:00
第三课-1.8 为什么是人的表现
05:47
第三课-1.9 可避免偏差
07:00
第三课-1.10 理解人的表现
00:14
第三课-1.11 超过人的表现
06:22
第三课-1.12 改善你的模型的表现
06:21
第三课-2.1 进行误差分析
10:33
第三课-2.2 清除标注错误的数据
13:06
第三课-2.3 快速搭建你的第一个系统,并进行迭代
06:02
第三课-2.4 在不同的划分上进行训练并测试
10:56
第三课-2.5 不匹配数据划分的偏差和方差
18:17
第三课-2.6 定位数据不匹配
10:09
第三课-2.7 迁移学习
11:18
第三课-2.8 多任务学习
13:00
第三课-2.9 什么是端到端的深度学习
11:48
第三课-2.10 是否要使用端到端的深度学习
10:20
第四课-1.1 计算机视觉
05:45
第四课-1.2 边缘检测示例
11:31
第四课-1.3 更多边缘检测内容
07:58
第四课-1.4 Padding
09:50
第四课-1.5 卷积步长
09:02
第四课-1.6 三维卷积
10:45
第四课-1.7 单层卷积网络
16:11
第四课-1.8 简单卷积网络示例
08:33
第四课-1.9 池化层
10:26
第四课-1.10 卷积神经网络示例
12:38
第四课-1.11 为什么使用卷积?
09:41
第四课-2.1 为什么要进行实例探究?
03:09
第四课-2.2 经典网络
18:20
第四课-2.3 残差网络
07:08
第四课-2.4 残差网络为什么有用?
09:13
第四课-2.5 网络中的网络以及 1×1 卷积
06:41
第四课-2.6 谷歌 Inception 网络简介
10:15
第四课-2.7 Inception 网络
08:47
第四课-2.8 使用开源的实现方案
04:57
第四课-2.9 迁移学习
08:48
第四课-2.10 数据扩充
09:32
第四课-2.11 计算机视觉现状
12:39
第四课-3.1 目标定位
11:55
第四课-3.2 特征点检测
05:57
第四课-3.3 目标检测
05:50
第四课-3.4 卷积的滑动窗口实现
11:09
第四课-3.5 Bounding Box预测
14:32
第四课-3.6 交并比
04:19
第四课-3.7 非极大值抑制
08:03
第四课-3.8 Anchor Boxes
09:44
第四课-3.9 YOLO 算法
07:02
第四课-3.10 候选区域
06:28
第四课-4.1 什么是人脸识别?
04:38
第四课-4.2 One-Shot 学习
04:45
第四课-4.3 Siamese 网络
04:52
第四课-4.4 Triplet 损失
15:31
第四课-4.5 面部验证与二分类
06:06
第四课-4.6 什么是神经风格转换?
02:03
第四课-4.7 什么是深度卷积网络?
07:58
第四课-4.8 代价函数
04:00
第四课-4.9 内容代价函数
03:38
第四课-4.10 风格代价函数
17:01
第四课-4.11 一维到三维推广
09:09
第五课-1.1为什么选择序列模型
03:01
第五课-1.2数学符号
09:16
第五课-1.3循环神经网络
16:32
第五课-1.4通过时间的方向传播
06:12
第五课-1.5不同类型的循环神经网络
09:34
第五课-1.6 语言模型和序列生成
12:02
第五课-1.7 对新序列采样
08:39
第五课-1.8带有神经网络的梯度消失
06:29
第五课-1.9 GRU 单元
17:07
第五课-1.10 长短期记忆(LSTM)
09:54
第五课-1.11 双向神经网络
08:20
第五课-1.12 深层循环神经网络
05:17
第五课-2.1 词汇表征
10:08
第五课-2.2 使用词嵌入
09:23
第五课-2.3 词嵌入的特性
11:55
第五课-2.4 嵌入矩阵
05:58
第五课-2.5 学习词嵌入
10:09
第五课-2.6 Word2Vec
12:48
第五课-2.7 负采样
11:54
第五课-2.8 GloVe 词向量
11:09
第五课-2.9 情绪分类
07:38
第五课-2.10 词嵌入除偏
11:09
第五课-3.1 基础模型
06:19
第五课-3.2 选择最可能的句子
08:57
第五课-3.3 定向搜索
11:55
第五课-3.4 改进定向搜索
11:01
第五课-3.5 定向搜索的误差分析
09:44
第五课-3.6 Bleu 得分(选修)
16:27
第五课-3.7 注意力模型直观理解
09:42
第五课-3.8 注意力模型
12:23
第五课-3.9 语音辨识
08:54
第五课-3.10 触发字检测
05:04
第五课-3.11 结论和致谢
02:45
吴恩达采访 Andrej Karpathy
15:11
吴恩达采访 Ruslan Salakhutdinov
17:09
吴恩达采访 Geoffrey Hinton
40:23
吴恩达采访 Ian Goodfellow
14:56
吴恩达采访 Pieter Abbeel
16:04
吴恩达采访 Yoshua Bengio
25:49
吴恩达采访 林元庆
13:37
客服
顶部
赛事库 课堂 2021拜年纪