谈一下自己的理解。
ICLR16的DCGAN(https://arxiv.org/pdf/1511.06434.pdf)文章,里面的实验表明: 全卷积网络训练更稳定。
这个是有时代背景的,GAN(https://papers.nips.cc/paper/5423-generative-adversarial-nets.pdf) 14年刚被提出来的时候,loss function是有log函数的,这个log函数其实是个小bug,导致网络难以训练。详情点击【令人拍案叫绝的Wasserstein GAN】(https://zhuanlan.zhihu.com/p/25071913)
因此14年未来两年的文章有许多是攻克GAN的训练难度问题。 DCGAN是其中之一。不过,自从ICML17的WGAN(https://arxiv.org/abs/1701.07875)被提出后,很大程度上解决了GAN的训练稳定性问题。
WGAN之后,也出现了许多影响力比较高的文章,并非用的全卷积网络,因为训练GAN并不是多大的问题了。比如ICLR18 Progressive Growing of GANs for Improved Quality, Stability, and Variation (https://arxiv.org/abs/1710.10196)(引用近1000,被认为第一篇具有高质量输出的GAN)就在D网络中用了average pooling. 再比如deep mind的bibiggan系列也并非是全卷积。
最近arxiv上也有文章指出,全卷积网络并不是最好的选择。FCCGAN(https://arxiv.org/pdf/1905.02417.pdf)还没看 : )