百科问答小站 logo
百科问答小站 font logo



如何看待谷歌研究人员提出的卷积正则化方法「DropBlock」? 第1页

  

user avatar   mileistone 网友的相关建议: 
      

发现了一个发文章的思路。

  • 先看看各种norm

15年提出的batch norm,从 三个维度做norm;

16年提出的layer norm,从 三个维度做norm;

16年提出的instance norm,从 两个维度做norm;

18年提出的group norm,从 上面做norm, 是在把 这个维度切成多个部分;

总结起来就是在 四个维度上面做排列组合,进行norm,每个维度还可以切成多个部分。好像还没有论文做norm,下一篇norm的论文也许就是这个了,哈哈哈。

  • 再看看各种drop

14年的dropout,随机drop一个 的特征;

15年的spatialdropout,随机drop一个 的特征;

18年的dropblock,随机drop一个 特征, 是在 上取一个region,跟group norm的group比较像;

总结起来就是在 四个维度上面做排列组合,进行drop,每个维度还可以切成多个部分。我试着继续做一下排列组合: 、 、 、 、 、 ,下一篇drop的论文也许就在上述排列组合中。


从norm系列论文和drop系列论文来看,当出现了一篇经典论文后,快速发现这篇论文方法的可拓展性,比如上述的 ,做实验,有效果了就可以发论文。

之前看non local neural networks的时候也发现了一种想idea的方法,还写了一篇回答


这篇文章还有一个有趣的彩蛋,backbone为ResNet-50 FPN的retinanet直接train from scratch跟在ImageNet数据pretrain的网络上效果相当。

就这个彩蛋,我写了一篇文章简单介绍了一下。




  

相关话题

  如何看待「机器学习不需要数学,很多算法封装好了,调个包就行」这种说法? 
  如何评价MSRA视觉组最新对spatial attention mechanism分析论文? 
  应届硕士毕业生如何拿到知名互联网公司算法岗(机器学习、数据挖掘、深度学习) offer? 
  2017年1月18日Facebook发行的PyTorch相比TensorFlow、MXNet有何优势? 
  DeepMind 团队中有哪些厉害的人物和技术积累? 
  当前深度学习理论基础薄弱是否意味着我们应该放弃深度学习应用(计算机视觉、自然语言处理)? 
  为什么softmax很少会出现[0.5,0.5]? 
  深度学习调参有哪些技巧? 
  如何证明数据增强(Data Augmentation)有效性? 
  搞机器学习的生环化材是天坑吗? 

前一个讨论
有哪些令你印象深刻的魔改transformer?
下一个讨论
为什么癌症往往一发现就是晚期?





© 2024-11-09 - tinynew.org. All Rights Reserved.
© 2024-11-09 - tinynew.org. 保留所有权利