百科问答小站 logo
百科问答小站 font logo



为什么softmax很少会出现[0.5,0.5]? 第1页

  

user avatar   wang-feng-98-82 网友的相关建议: 
      

因为训练的时候你没有跟网络说什么样的东西应该不确定。

你只给了确定的label,要么是[0,1]要么是[1,0],那网络就只会出接近这两个值的输出。

-----------------分界线------------------

当然这背后是有数学原理的,二分类的softmax其实等价于sigmoid,如果一直给one-hot的标签,在训练集几乎都能分正确的前提下,网络趋向于将feature的norm无限拉长,sigmoid越来越接近0-1的阶跃函数,几乎所有样本的输出就都在接近0和接近1的位置,中间态几乎没有。

注意这里引入了一个假设,即“训练集几乎都能分正确”。如果你的训练集拟合得不好,你会发现输出0.3、0.5之类的样本的机会会大大增加。

-----------------分界线------------------

怎么告诉网络不确定性呢?

有两种方式:一种是soft label,即你直接就给部分样本[0.5, 0.5]的label;一种是noise label,就是你觉得不确定的东西,一会给0的label,一会给1的label。

这两种方式都可以起作用,当然第一种效果更好一些,网络有比较明确的目标,第二种方式在batch training下其实也是有效的,只是看起来比较奇怪。




  

相关话题

  人工智能就业前景越来越严峻了,你还在坚持吗? 
  先进的图像识别怎样改变 AV 产业? 
  既然使用神经网络也可以解决分类问题,那SVM、决策树这些算法还有什么意义呢? 
  如何评价MXNet发布的1.0版本? 
  如何评价 DeepMind 公布的可生成算法竞赛解题代码的 AlphaCode? 
  要研究深度学习的可解释性(Interpretability),应从哪几个方面着手? 
  深度学习方面还有什么Open Problem? 
  TVM 最新发布版本 0.3 有哪些亮点? 
  DeepMind 团队中有哪些厉害的人物和技术积累? 
  如何激怒一位人工智能(机器学习、深度学习、强化学习等)爱好者? 

前一个讨论
目前 AI 在疾病的诊断和治疗上,有哪些成功的应用?
下一个讨论
一位合格的博士生需要有哪些条件和素质?





© 2025-04-23 - tinynew.org. All Rights Reserved.
© 2025-04-23 - tinynew.org. 保留所有权利