百科问答小站 logo
百科问答小站 font logo



卷积神经网络中卷积核是如何学习到特征的? 第1页

  

user avatar   liustein 网友的相关建议: 
      

保证不了,所以要高度过参数化,保证有大量的种子选手可供选择,最后总会有幸运儿学到特征。

所以参数对初始化非常敏感,重新初始化一下,网络内部结构会完全改变。这个就类似于蝴蝶效应,有一个卷积核向某个方向略偏了一下,结果正好撞上了狗屎运(梯度),居然恰好在对的位置,能获得越来越多的运气(梯度),学到的这个特征就会越来越肯定。

这也是为什么,训练好的神经网络,有用的部分不多,有用的部分只是因为运气好。而没有被梯度之神选中的牺牲品,如果一开始没得到梯度,就成了弃子了,之后就永远都得不到了!

梯度,永远滴神。 ——知乎 @霍华德



  

相关话题

  现大二,准备做大学生创新创业项目计划 ,目前定的方向是深度学习+畜牧业/养殖业,有什么建议给我们吗? 
  有没有什么可以节省大量时间的 Deep Learning 效率神器? 
  深度学习应用在哪些领域让你觉得「我去,这也能行!」? 
  如何看待End-to-End Object Detection with Transformers? 
  在做算法工程师的道路上,你掌握了什么概念或技术使你感觉自我提升突飞猛进? 
  如何评价 PyTorch 团队推出的推荐系统库 TorchRec? 
  目标检测算法中Two-stage算法速度慢,到底在哪里? 
  基于深度学习的人工智能程序和传统程序的差别在哪里? 
  2020-2021年NLP有什么核心技术的更迭吗?或者有什么推动领域发展的paper吗? 
  多模态训练,怎么解决不同模态之间差异的问题? 

前一个讨论
工作之后,顶会还重要吗?
下一个讨论
多模态方面,有哪些牛组值得我们follow他们的工作?





© 2025-04-15 - tinynew.org. All Rights Reserved.
© 2025-04-15 - tinynew.org. 保留所有权利