吴恩达Machine Learning第五周作业——神经网络

这周的内容是上周的延续,上周的作业我们会发现实现的内容是比较少的,比如对于参数theta是如何计算的。这周将逐步解开谜底。

我们的终极目标是在引入的误差函数上减少训练的误差,我们一直用的就是梯度下降法,因此需要求出总误差对于每个权重的倒数。然后此时我们就用到了梯度下降这个小技巧,主要思路就是链式法则,经过数学推导可以得到总误差对于某个单元输出值的导数。这个值呢,每一层的值都和后一层的偏差(预测值-真实值)有关。(讲义里是直接给了用法的,但并没有证明,告诉了我们从最后一层的误差不断向前推偏差)

有点乱,之后继续补充吧

《吴恩达Machine Learning第五周作业——神经网络》
《吴恩达Machine Learning第五周作业——神经网络》

点赞

发表评论

电子邮件地址不会被公开。 必填项已用*标注