正则化; 深度学习,视频笔记;DL:deeplizard

tdo 2021-09-03 17:41:53

2021-09-06 11:12:52

regularization

减少 overfitting 的程度

去除一些 复杂性

最重要的,惩罚 那些 过于 大 的 weights

正则化; 深度学习,视频笔记;DL:deeplizard

如何实现 正则化

通过 给 我们的 loss 函数 增加 一个 x 项;

正则化; 深度学习,视频笔记;DL:deeplizard

常见的 正则化

L2 正则化

正则化; 深度学习,视频笔记;DL:deeplizard
λ \lambda λ 也是我们 的 超参数

为什么 设置 一个 正则化,会 对我们有帮助

正则化; 深度学习,视频笔记;DL:deeplizard

记住,x 是我们的 正则化 项,如果 我们 设定的 λ \lambda λ 是个 相对 比较 大的数字,那么 整个 loss 加上 x 就是 比较 大。

我们的 object function 就是要 最小化 loss ,于是 ,在 反向传播的过程中,我们会 注意到 loss 的成分里面 实际上 是 有 L2 正则化 里面 的 ∣ ∣ w [ j ] ∣ ∣ 2 {||w^{[j]}||}^2 ∣∣w[j]∣∣2 这个东西,也就是 weight 这个东西

如果 想要 降低 losss 就会 降低 weight ,以至于 甚至能 zero out 某 一层 的 所有 weights:

正则化; 深度学习,视频笔记;DL:deeplizard

如何 在 keras 里面 实现 正则化

首先,前置:

正则化; 深度学习,视频笔记;DL:deeplizard

就是这样了:
正则化; 深度学习,视频笔记;DL:deeplizard

参考:

https://www.youtube.com/watch?v=iuJgyiS7BKM&list=PLZbbT5o_s2xq7LwI2y8_QtvuXZedL6tQU&index=35

上一篇:参数初始化


下一篇:5187. 收集足够苹果的最小花园周长