机器学习知识点整理(三)

十一、深度学习基础

1.为什么必须在神经网络中引入非线性?

 2.ReLU在零点不可导,那么在反向传播中怎么处理?

ReLU虽然在零点不可导,但是我们在做反向传播的计算时,对ReLu这个函数的导数分情况讨论,即ReLU在零点时人为地给它赋予一个导数,比如0或者1。例如在下面的ReLU的反向传播函数实现中,将ReLU在零点位置的导数设置为0。

 

 3.ReLu有哪些优缺点

优点:
  1). 使用 ReLU 的 SGD 算法的收敛速度比 sigmoid 和 tanh 快;
  2.) 在 x > 0 上,不会出现梯度饱和,梯度消失的问题。
  3.) 计算复杂度低,不需要进行指数运算,只要一个阈值(0)就可以得到激活值。
缺点:
  1.) ReLU 的输出不是 0 均值的,它将小于 0 的值都置为 0; 使得所有参数的更新方
向都相同,导致了 ZigZag 现象。
  2.) Dead ReLU Problem (ReLU 神经元坏死现象):某些神经元可能永远不被激活,
导致相应参数永远不会被更新(在负数部分,梯度为 0)
  3.) ReLU 不会对数据做幅度压缩,所以数据的幅度会随着模型层数的增加不断扩
张。
注: ZigZag 现象指的是,模型中所有的参数在一次梯度更新的过程中,更新方向相
同,即同为正或者同为负。这就导致了梯度更新图像呈现 Z 字形,进而导致梯度更新
效率比较低。

4.Batch Normalization解决了什么问题

 5.

 

 6.

 

 

 

 

 

 

 

 

7.

 

 

 

8.

 

9.

 

10.

 

11.

 

 

 

 

 

 

 十二、CV

1.

 

 2.

 

 3.

 

 4.

 

 5.

 

 

 

 6.

 

 

 

 

 

 

 

 7.

 

 8.

 9.

 

 

Tags: