本文为 Andrew Ng 深度学习课程第一部分神经网络和深度学习的笔记,对应第四周深层神经网络的相关课程及作业。
本节,我们将用网络块来深入理解正向传播和反向传播的过程,由于之前部分已经详细解释了正向传播和反向传播,这里不再详述,本节只是起到补充说明加深理解的作用。
本文为 Andrew Ng 深度学习课程第一部分神经网络和深度学习的笔记,对应第四周深层神经网络的相关课程。
主要复习了之前 Logistic Regression 和单隐藏层的神经网络,并推广到多隐藏层,同时也介绍了深层神经网络的一些符号约定,基本遵循了之前的规则,所以这里不再详述。
本文为 Andrew Ng 深度学习课程第一部分神经网络和深度学习的笔记,对应第三周浅层神经网络的相关课程及相关作业。
为什么神经网络需要非线性的激活函数?不能使用线性的激活函数,比如 $g(z) = z$ 吗?
本文为 Andrew Ng 深度学习课程第一部分神经网络和深度学习的笔记,对应第三周浅层神经网络的相关课程。
本周,你将学会如何实现神经网络。上周,我们讨论了对数几率回归 (logistic regression) ,并且使用计算图 (computation graph) 的方式了解了梯度下降算法的正向传播和反向传播的两个过程,如下图所示 :
本文为 Andrew Ng 深度学习课程第一部分神经网络和深度学习的笔记,对应第二周神经网络基础相关课程及第二周作业。
Vectorization (向量化) 的意义在于:消除代码中显式的调用for循环。在深度学习领域中,你常常需要训练大数据集,所以程序运行的效率非常重要,否则需要等待很长时间才能得到结果。
Zihan Song
Developer
Shanghai, China
Posts
12
Categories
6
Tags
4
Software Engineering / Object-Oriented
deeplearning.ai / Deep learning & NN
Update your browser to view this website correctly. Update my browser now
×