百科问答小站 logo
百科问答小站 font logo



验证集loss上升,准确率却上升该如何理解? 第1页

  

user avatar   virter 网友的相关建议: 
      

如题主自己回复,这种情况是由于模型得到的结果过于极端(自信)导致,上几张图,题主的情况应该和我下面情况差不多:

可以看到随着迭代增加ValidationLoss越来越大快跑飞了,不过准确率却逐渐平稳变化不大。而且验证集的准确率最高点也出现在先下降后上升区间。实际上准确率最高点(10 epoch左右)的预测结果是这样的:

而训练200 epoch后的预测结果是这样的:

可以明显看出训练200轮后结果趋于极端,而这些极端的负面Loss拉大了总体Loss导致验证集Loss飙升。出现这种情况大多是训练集验证集数据分布不一致,或者训练集过小,未包含验证集中所有情况,也就是过拟合导致的。而解决这种现象可以尝试以下几种策略:

  1. 增加训练样本
  2. 增加正则项系数权重,减小过拟合
  3. 加入早停机制,ValLoss上升几个epoch直接停止
  4. 采用Focal Loss
  5. 加入Label Smoothing

不过个人感觉主要还是增加训练样本比较靠谱..而且不用太关心ValLoss,关注下ValAccuracy就好。我的这个实验虽然只训练10个epoch在验证集上的准确率高且ValLoss小,但在测试集上结果是巨差的,而训练200个epoch的模型ValLoss虽然巨高但测试集效果还不错。




  

相关话题

  为什么CV能做到让一幅人脸图动了笑了,而NLP的text-style-transfer进展貌似一般? 
  机器之心提问:如何评价Facebook Training ImageNet in 1 Hour这篇论文? 
  对自己深度学习方向的论文有idea,可是工程实践能力跟不上,实验搞不定怎么办? 
  如何评价移动端吊打一切万众期待的商汤深度学习推理框架PPL开源了却没有支持移动端? 
  人工智能领域有哪些精妙的数学原理? 
  2021年了,如何评价微软亚研提出的对偶学习(Dual Learning)? 
  有哪些令你印象深刻的魔改transformer? 
  AI(或者说神经网络/深度学习)能够实现科学(尤其是物理学)研究中提出假设这一步嘛? 
  2017年1月18日Facebook发行的PyTorch相比TensorFlow、MXNet有何优势? 
  计算流体力学(CFD)里应用注意力机制(attention)是否可行? 

前一个讨论
为什么学习深度学习感觉无法入门?
下一个讨论
联邦学习/联盟学习 (Federated Learning) 的发展现状及前景如何?





© 2025-06-14 - tinynew.org. All Rights Reserved.
© 2025-06-14 - tinynew.org. 保留所有权利