百科问答小站 logo
百科问答小站 font logo



为什么nn的较大问题是会陷入局部最优时,不选用凸函数作为激活函数? 第1页

  

user avatar   filestorm 网友的相关建议: 
       @li Eta

答得很好。

关于第一点

为什么陷入局部最优,根本不是NN的问题

貌似并没展开说。我正好得空,补充一下

大家以前认为,deep learning的loss的形状会是布满弹坑的样子:


于是,梯度下降到local minimum如果不是global minimum就出大问题了。




但其实对于deep learning,我们是在一个非常高维的世界里做梯度下降。这时的 local minimum 很难形成,因为局部最小值要求函数在所有维度上都是局部最小。更实际得情况是,函数会落到一个saddle-point上,如下图:



在saddle-point上会有一大片很平坦的平原,让梯度几乎为0,导致无法继续下降。

反倒是local/global minimum的问题,大家发现其实不同的local minimum其实差不多(反正都是over-fitting training data,lol)

推荐阅读Bengio组的这两篇:

On the saddle point problem for non-convex optimization

Identifying and attacking the saddle point problem in high-dimensional non-convex optimization




  

相关话题

  如果有一个人见到一个整数就能立刻分解质因数,那么这个人怎样才能发挥他的最大价值? 
  从一读到一亿需要读多少个汉字? 
  怎样理解任何有限集都是紧集? 
  那些数学很好的人现在怎么样了? 
  圆周率里包含你的银行卡密码吗? 
  10个人各自从1-10选数字,尽量让自己最大且不重复,如何选? 
  你未必有儿子,从而未必有孙子,未必有一百代世孙。但为何你有父亲,你有爷爷,你有第一百代祖父? 
  联邦学习/联盟学习 (Federated Learning) 的发展现状及前景如何? 
  如何评价B站UP主未明子宣称“知乎搞机器学习模拟拉康的程序员”具备“头脑上的悲剧”? 
  有什么免费软件可以替代几何画板? 

前一个讨论
in memory computing 存内计算是学术圈自娱自乐还是真有价值?
下一个讨论
现在互联网公司还有做特征工程的工作吗?





© 2024-11-21 - tinynew.org. All Rights Reserved.
© 2024-11-21 - tinynew.org. 保留所有权利