百科问答小站 logo
百科问答小站 font logo



结合深度学习的图像修复怎么实现? 第1页

  

user avatar   zhangq-4 网友的相关建议: 
      

2019.09.02更新,目前共整理了15篇论文,仅供学习参考

附: inpainting这个坑在CV大家族里是个相当小众的方向了,然而做了三年才发现这是个大坑...DL+inpainting更是个巨坑...提前说下,入坑需谨慎啊...同时欢迎各位大佬补充说明!


1. CVPR 2016Context-Encoders(CNN+GAN, 鼻祖级的 NN修复方法,后面大多数补绘方法的爸爸,在DL+inpainting领域里,堪比大佬董超的SRCNNDL+单张超分辨重建地位) 链接: Feature Learning by Inpainting; Github代码:


2. CVPR 2017High Resolution Inpainting(Context-Encoders+CNNMRF框架),结合了风格迁移的思路,链接: High-Resolution Image Inpainting using Multi-Scale Neural Patch Synthesis; Github代码:


3. ICCV 2017on demanding learning(本质上还是Context-Encoders的衍生版) 链接: On-Demand Learning for Deep Image Restoration, Github代码:


4. SIGGRAPH 2017 (ACM ToG)Globally and Locally Consistent Image Completion (CE中加入Global+Local两个判别器的改进), Github代码:


5. ECCV 2018Image Inpainting for Irregular Holes Using Partial Convolutions (引入了局部卷积,能够修复任意非中心、不规则区域),论文+代码(官方):


6. CVPR 2018Generative Image Inpainting with Contextual Attention,一作大佬jiahui Yu 后续还有个工作: Free-Form Image Inpainting with Gated Convolution, Github代码:


7. ECCV 2018Shift-Net: Image Inpainting via Deep Feature Rearrangement (哈工大 左旺孟教授组的工作)效果也不错,Github代码:


8. ECCV 2018Contextual-based Image Inpaintinginpainting大佬Chao Yang(NPS的一作)等人的又一力作:


9. ACM MM 2018Semantic Image Inpainting with Progressive Generative Networks简称PGN,采用了由外至内的步进式修补策略,Github代码:


10. NIPS 2018Image Inpainting via Generative Multi-column Convolutional Neural Networks,用了不少trick,Github代码:


11. ICCV 2019EdgeConnect: Generative Image Inpainting with Adversarial Edge Learning, 采用边缘推断信息的思路进行重建。Github代码:


12. CVPR 2019Foreground-aware Image Inpainting, 思路类似于上面的工作,也是先推断生成轮廓边缘,辅助缺失区域进行修复,不知道上面的哥们看了这篇会是什么感受...速度也很重要啊...


13. CVPR 2019Pluralistic Image Completion论文与Github代码:


14. IJCAI 2019MUSICAL: Multi-Scale Image Contextual Attention Learning for Inpainting,武汉大学杜博老师组的工作(注:第一作者为我校计院的一名本科生...广大CV狗瑟瑟发抖!)。引入一个多尺度的上下文注意力模块,避免信息滥用/误用导致的纹理模糊等问题,损失函数部分联合了风格损失、感知损失、对抗损失,来保证补绘内容的一致性和清晰水平。


15. ICCV 2019Coherent Semantic Attention for Image Inpainting,论文作者为Kuma , 文中提出了一个全新的Attention模块,该模块不仅有效的利用了上下文信息同时能够捕捉到生成补丁之间的相关性。同时提出了一个新的损失函数配合模块的工作,最后利用一个新的特征感知辨别器对细节效果进行加强,代码过段时间会公开




  

相关话题

  for 循环的 "for" 是什么意思?为什么用这个词? 
  如何理解 inductive learning 与 transductive learning? 
  新手该如何使用 GitHub? 
  pytorch 的高层库ignite怎么样? 
  现代人工神经网络是不是一个死胡同?这个技术是不是骗人的? 
  软件架构中解耦的意义难道是为了频繁的更换架构? 
  无人车为什么一定要用激光雷达做,双目视觉难道不行吗? 
  如何看待 GitHub 上许多学习笔记、面经等项目获得过多的 star? 
  想知道各位毕业设计做完花了多久? 
  如何理解计算物理中的元胞链接列表(Cell Linked List)算法? 

前一个讨论
如何理解 Swin Transformer 和 Vision Transformer不同任务上的差异?
下一个讨论
NLP 中 prompt learning 有哪些可能的天生缺陷?目前有什么样的方法来解决这样的缺陷?





© 2024-09-19 - tinynew.org. All Rights Reserved.
© 2024-09-19 - tinynew.org. 保留所有权利