百科问答小站 logo
百科问答小站 font logo



NTIRE2017夺冠的EDSR去掉了Batch Normalization层就获得了提高为什么? 第1页

  

user avatar   eric314 网友的相关建议: 
      

bn其实一点都不好。个人认为bn是深度学习界有史以来最恶心的trick,实现起来一堆坑不说,加上bn以后你的输入都不iid了,要是在深度学习爆火以前有人提出bn,肯定会被统计学家打死……无奈它在图像识别上效果很好,大家只能忍了。

bn的主要作用是控制数值区间,让比较深的网络训练起来稳定性比较好,更不容易爆炸。但是初始化和调参其实可以部分解决这个问题,能不用bn的时候还是尽量不要用,尤其是做一个新的问题的时候,不要想当然就把bn塞进去。

顺便推荐一下selu,是一个有希望代替bn的研究方向zhihu.com/question/6091




  

相关话题

  2021 年了,TensorFlow 和 PyTorch 两个深度学习框架地位又有什么变化吗? 
  多任务学习中loss多次backward和loss加和后backward有区别吗? 
  土木和机器学习/深度学习/算法的交叉岗位在哪里找呀? 在哪找都找不到招聘公司? 
  简单解释一下sparse autoencoder, sparse coding和restricted boltzmann machine的关系? 
  2020-2021年NLP有什么核心技术的更迭吗?或者有什么推动领域发展的paper吗? 
  基于深度学习的人工智能程序和传统程序的差别在哪里? 
  实验室只有1080的显卡,老师还想让发深度学习论文,也不给配置好的显卡怎么办? 
  计算机视觉中,目前有哪些经典的目标跟踪算法? 
  如何用一句话证明自然语言处理很难? 
  如何评价生成模型框架 ZhuSuan? 

前一个讨论
如果印度不退兵,中国会不会出手教训印度?
下一个讨论
如何看待美团这次的外卖分箱行为?





© 2024-09-20 - tinynew.org. All Rights Reserved.
© 2024-09-20 - tinynew.org. 保留所有权利