百科问答小站 logo
百科问答小站 font logo



请问人工神经网络中的activation function的作用具体是什么?为什么ReLu要好过于tanh和sigmoid function? 第1页

  

user avatar   jia-wei-97-19 网友的相关建议: 
      最近自学神经网络,一直不太明白activation的具体作用到底是干嘛的,不用activation又会有什么影响
user avatar   wang-feng-98-82 网友的相关建议: 
      最近自学神经网络,一直不太明白activation的具体作用到底是干嘛的,不用activation又会有什么影响


  

相关话题

  attention跟一维卷积的区别是啥? 
  为什么CV能做到让一幅人脸图动了笑了,而NLP的text-style-transfer进展貌似一般? 
  如何理解今年发表在JMLR上随机森林算法SPORF? 
  当今最机智的大学生是不是选学金融+计算机双学位、双方向发展的人? 
  如何看待物理学家 Lee Phillips 对 Python 的批评? 
  为什么说 MD5 是不可逆的? 
  PyTorch中在反向传播前为什么要手动将梯度清零? 
  为什么ViT里的image patch要设计成不重叠? 
  怎么通俗地理解张量? 
  如何评价Google最新提出的gMLP:MLP模型在CV和NLP任务上均取得较好的效果? 

前一个讨论
国内研究生不小心跟了一个水货老师是什么样的体验?
下一个讨论
基于深度学习的自然语言处理在 2016 年有哪些值得期待的发展?





© 2025-06-14 - tinynew.org. All Rights Reserved.
© 2025-06-14 - tinynew.org. 保留所有权利