百科问答小站 logo
百科问答小站 font logo



自监督学习(Self-supervised Learning)有什么比较新的思路? 第1页

  

user avatar   zhan-xiao-hang 网友的相关建议: 
      

更新一个我们在CVPR2019的自监督学习新工作Self-Supervised Learning via Conditional Motion Propagation。具体见之前发的一篇文章

------------ 2019的分割线 -------------
Mix-and-Match Tuning for Self-Supervised Semantic Segmentation.
这是一种为self-supervised learning服务的tuning的方法,主要为了缩小proxy task与target task的semantic gap. 目前可以在语义分割任务上不使用ImageNet pretraining,接近有ImageNet pretraining的performance。在其中一个setting中超越了ImageNet pretraining一点点。。。
后续可能会拓展到detection,并跟semi-supervised learning结合起来。
欢迎大家围观!




  

相关话题

  如何评价谷歌刚推出的Cloud AutoML? 
  mxnet的并行计算为什么这么牛,是什么原理? 
  Resnet到底在解决一个什么问题呢? 
  如何看待指出 神经网络的训练罪魁祸首是退化一文? 
  CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的内部网络结构有什么区别? 
  如何看待 Richard Sutton 说的「人工智能中利用算力才是王道」? 
  为什么神经网络具有泛化能力? 
  为什么在SGD中使用L1正则化很难获得稀疏性? 
  当前深度学习理论基础薄弱是否意味着我们应该放弃深度学习应用(计算机视觉、自然语言处理)? 
  硕士方向,选择迁移学习还是自然语言处理? 

前一个讨论
请简单地表述结合律和交换律的区别和联系。结合律为什么那么普遍?
下一个讨论
如何评价刘强东「如果京东少缴五险一金,一年至少多赚50亿!」的言论?





© 2024-11-21 - tinynew.org. All Rights Reserved.
© 2024-11-21 - tinynew.org. 保留所有权利