生成對抗網絡 (Generative Adversarial Network, GAN) 是一類神經網絡,通過輪流訓練判別器 (Discriminator) 和生成器 (Generator),令其相互對抗,來從複雜概率分布中采樣,例如生成圖片、文字、語音等。GAN 最初由 Ian Goodfellow 提出,原論文見 Generative Adversarial Networks

生成對抗網絡(GAN)專知薈萃

一、理論學習

  1. 訓練GANs的技巧

參考鏈接:[http://papers.nips.cc/paper/6124-improved-techniques-for-training-gans.pdf] 2. Energy-Based GANs 以及Yann Le Cun 的相關研究
參考鏈接:[http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf] 3. 模式正則化GAN
參考鏈接:[https://arxiv.org/pdf/1612.02136.pdf] 4. 最新NIPS2016也有最新的關於訓練GAN模型的總結
參考鏈接:[https://github.com/soumith/ganhacks] 5. The GAN Zoo千奇百怪的生成對抗網絡,都在這裏了。你沒看錯,裏麵已經有有近百個了。
參考鏈接: [https://github.com/hindupuravinash/the-gan-zoo]

二、綜述

1.中科院自動化所 中文綜述 《生成式對抗網絡 GAN 的研究進展與展望》
參考鏈接:[https://pan.baidu.com/s/1dEMITo9] 密碼: qqcc

三、報告

  1. Ian Goodfellow的GANs報告ICCV 2017
    參考鏈接:[https://pan.baidu.com/s/1bpIZvfL]
  2. Ian Goodfellow的GANs報告ICCV 2017的中文講稿
    參考鏈接:[https://mp.weixin.qq.com/s/nPBFrnO3_QJjAzm37G5ceQ]
  3. Ian Goodfellow的GANs報告NIPS 2016
    參考鏈接:[http://www.iangoodfellow.com/slides/2016-12-04-NIPS.pdf]
  4. Ian Goodfellow的GANs報告NIPS 2016 的中文講稿
    參考鏈接:[http://www.sohu.com/a/121189842_465975]
  5. Russ Salakhutdinov的深度生成模型
    參考鏈接:[http://www.cs.toronto.edu/~rsalakhu/talk_Montreal_2016_Salakhutdinov.pdf]

四、教程

  1. NIPS 2016教程:生成對抗網絡

參考鏈接:[https://arxiv.org/pdf/1701.00160.pdf] 2. 訓練GANs的技巧和竅門
參考鏈接:[https://github.com/soumith/ganhacks] 3. OpenAI生成模型
參考鏈接:[https://blog.openai.com/generative-models/] 4. 用Keras實現MNIST生成對抗模型
參考鏈接:[https://oshearesearch.com/index.PHP/2016/07/01/mnist-generative-adversarial-model-in-keras/] 5. 用深度學習TensorFlow實現圖像修複
參考鏈接:[http://bamos.github.io/2016/08/09/deep-completion/]

五、中文博客資料

1.生成對抗網絡初學入門:一文讀懂GAN的基本原理
[http://www.xtecher.com/Xfeature/view?aid=7496]
2.深入淺出:GAN原理與應用入門介紹
[https://zhuanlan.zhihu.com/p/28731033]
3.港理工在讀博士李嫣然深入淺出GAN之應用篇
參考鏈接:鏈接: [https://pan.baidu.com/s/1o8n4UDk] 密碼: 78wt
4.萌物生成器:如何使用四種GAN製造貓圖
參考鏈接:[https://zhuanlan.zhihu.com/p/27769807]
5.GAN學習指南:從原理入門到製作生成Demo
參考鏈接:[https://zhuanlan.zhihu.com/p/24767059x]
6.生成式對抗網絡GAN研究進展
參考鏈接:[http://blog.csdn.net/solomon1558/article/details/52537114]
7.生成對抗網絡(GAN)的前沿進展(論文、報告、框架和Github資源)彙總
參考鏈接:[http://blog.csdn.net/love666666shen/article/details/74953970]

六、Github資源以及模型

  1. 深度卷積生成對抗模型(DCGAN)

參考鏈接:[https://github.com/Newmu/dcgan_code]
2. TensorFlow實現深度卷積生成對抗模型(DCGAN)
參考鏈接:[https://github.com/carpedm20/DCGAN-tensorflow]
3. Torch實現深度卷積生成對抗模型(DCGAN)
參考鏈接:[https://github.com/soumith/dcgan.torch]
4. Keras實現深度卷積生成對抗模型(DCGAN)
參考鏈接:[https://github.com/jacobgil/keras-dcgan]
5. 使用神經網絡生成自然圖像(Facebook的Eyescream項目)
參考鏈接:[https://github.com/facebook/eyescream]
6. 對抗自編碼(AdversarialAutoEncoder)
參考鏈接:[https://github.com/musyoku/adversarial-autoencoder]
7. 利用ThoughtVectors 實現文本到圖像的合成
參考鏈接:[https://github.com/paarthneekhara/text-to-image]
8. 對抗樣本生成器(Adversarialexample generator)
參考鏈接:[https://github.com/e-lab/torch-toolbox/tree/master/Adversarial]
9. 深度生成模型的半監督學習
參考鏈接:[https://github.com/dpkingma/nips14-ssl]
10. GANs的訓練方法
參考鏈接:[https://github.com/openai/improved-gan]
11. 生成式矩匹配網絡(Generative Moment Matching Networks, GMMNs)
參考鏈接:[https://github.com/yujiali/gmmn]
12. 對抗視頻生成
參考鏈接:[https://github.com/dyelax/Adversarial_Video_Generation]
13. 基於條件對抗網絡的圖像到圖像翻譯(pix2pix)
參考鏈接:[https://github.com/phillipi/pix2pix]
14. 對抗機器學習庫Cleverhans,
參考鏈接:[https://github.com/openai/cleverhans]

七、最新研究論文

2014

  1. 對抗實例的解釋和利用(Explaining and Harnessing Adversarial Examples)2014
    原文鏈接:[https://arxiv.org/pdf/1412.6572.pdf]
  2. 基於深度生成模型的半監督學習( Semi-Supervised Learning with Deep Generative Models )2014
    原文鏈接:[https://arxiv.org/pdf/1406.5298v2.pdf]
  3. 條件生成對抗網絡(Conditional Generative Adversarial Nets)2014
    原文鏈接:[https://arxiv.org/pdf/1411.1784v1.pdf]

2015

  1. 基於深度卷積生成對抗網絡的無監督學習(Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks (DCGANs))2015
    原文鏈接:[https://arxiv.org/pdf/1511.06434v2.pdf]
  2. 基於拉普拉斯金字塔生成式對抗網絡的深度圖像生成模型(Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks)2015
    原文鏈接:[http://papers.nips.cc/paper/5773-deep-generative-image-models-using-a-5. laplacian-pyramid-of-adversarial-networks.pdf]
  3. 生成式矩匹配網絡(Generative Moment Matching Networks)2015
    原文鏈接:[http://proceedings.mlr.press/v37/li15.pdf]
  4. 超越均方誤差的深度多尺度視頻預測(Deep multi-scale video prediction beyond mean square error)2015
    原文鏈接:[https://arxiv.org/pdf/1511.05440.pdf]
  5. 通過學習相似性度量的超像素自編碼(Autoencoding beyond pixels using a learned similarity metric)2015
    原文鏈接:[https://arxiv.org/pdf/1512.09300.pdf]
  6. 對抗自編碼(Adversarial Autoencoders)2015
    原文鏈接:[https://arxiv.org/pdf/1511.05644.pdf]
  7. 基於像素卷積神經網絡的條件生成圖片(Conditional Image Generation with PixelCNN Decoders)2015
    原文鏈接:[https://arxiv.org/pdf/1606.05328.pdf]
  8. 通過平均差異最大優化訓練生成神經網絡(Training generative neural networks via Maximum Mean Discrepancy optimization)2015
    原文鏈接:[https://arxiv.org/pdf/1505.03906.pdf]

2016

  1. 訓練GANs的一些技巧(Improved Techniques for Training GANs)2016
    原文鏈接:[https://arxiv.org/pdf/1606.03498v1.pdf]
  2. InfoGAN:基於信息最大化GANs的可解釋表達學習(InfoGAN:Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets)2016
    原文鏈接:[https://arxiv.org/pdf/1606.03657v1.pdf]
    3.上下文像素編碼:通過修複進行特征學習(Context Encoders: Feature Learning by Inpainting)2016 原文鏈接: [http://www.cvfoundation.org/openaccess/content_cvpr_2016/papers/Pathak_Context_Encoders_Feature_CVPR_2016_paper.pdf]
  3. 生成對抗網絡實現文本合成圖像(Generative Adversarial Text to Image Synthesis)2016
    原文鏈接:[http://proceedings.mlr.press/v48/reed16.pdf]
  4. 對抗特征學習(Adversarial Feature Learning)2016
    原文鏈接:[https://arxiv.org/pdf/1605.09782.pdf]
  5. 結合逆自回歸流的變分推理(Improving Variational Inference with Inverse Autoregressive Flow )2016
    原文鏈接: [https://papers.nips.cc/paper/6581-improving-variational-autoencoders-with-inverse-autoregressive-flow.pdf]
  6. 深度學習係統對抗樣本黑盒攻擊(Practical Black-Box Attacks against Deep Learning Systems using Adversarial Examples)2016
    原文鏈接:[https://arxiv.org/pdf/1602.02697.pdf]
  7. 參加,推斷,重複:基於生成模型的快速場景理解(Attend, infer, repeat: Fast scene understanding with generative models)2016
    原文鏈接:[https://arxiv.org/pdf/1603.08575.pdf]
  8. f-GAN: 使用變分散度最小化訓練生成神經采樣器(f-GAN: Training Generative Neural Samplers using Variational Divergence Minimization )2016
    原文鏈接: [http://papers.nips.cc/paper/6066-tagger-deep-unsupervised-perceptual-grouping.pdf]
    10.在自然圖像流形上的生成視覺操作(Generative Visual Manipulation on the Natural Image Manifold)2016
    原文鏈接:[https://arxiv.org/pdf/1609.03552.pdf]
  9. 對抗性推斷學習(Adversarially Learned Inference)2016
    原文鏈接:[https://arxiv.org/pdf/1606.00704.pdf]
  10. 基於循環對抗網絡的圖像生成(Generating images with recurrent adversarial networks)2016
    原文鏈接:[https://arxiv.org/pdf/1602.05110.pdf]
  11. 生成對抗模仿學習(Generative Adversarial Imitation Learning)2016
    原文鏈接:[http://papers.nips.cc/paper/6391-generative-adversarial-imitation-learning.pdf]
  12. 基於3D生成對抗模型學習物體形狀的概率隱空間(Learning a Probabilistic Latent Space of Object Shapes via 3D Generative-Adversarial Modeling)2016
    原文鏈接:[https://arxiv.org/pdf/1610.07584.pdf]
  13. 學習畫畫(Learning What and Where to Draw)2016
    原文鏈接:[https://arxiv.org/pdf/1610.02454v1.pdf]
  14. 基於輔助分類器GANs的條件圖像合成(Conditional Image Synthesis with Auxiliary Classifier GANs)2016
    原文鏈接:[https://arxiv.org/pdf/1610.09585.pdf]
  15. 隱生成模型的學習(Learning in Implicit Generative Models)2016
    原文:[https://arxiv.org/pdf/1610.03483.pdf]
  16. VIME: 變分信息最大化探索(VIME: Variational Information Maximizing Exploration)2016
    原文鏈接: [http://papers.nips.cc/paper/6591-vime-variational-information-maximizing-exploration.pdf]
  17. 生成對抗網絡的展開(Unrolled Generative Adversarial Networks)2016
    原文鏈接:[https://arxiv.org/pdf/1611.02163.pdf]
  18. 基於內省對抗網絡的神經圖像編輯(Neural Photo Editing with Introspective Adversarial Networks)2016
    原文鏈接:[https://arxiv.org/pdf/1609.07093.pdf]
  19. 基於解碼器的生成模型的定量分析(On the Quantitative Analysis of Decoder-Based Generative Models )2016
    原文鏈接:[https://arxiv.org/pdf/1611.04273.pdf]
  20. 結合生成對抗網絡和Actor-Critic 方法(Connecting Generative Adversarial Networks and Actor-Critic Methods)2016
    原文鏈接:[https://arxiv.org/pdf/1610.01945.pdf]
  21. 通過對抗網絡使用模擬和非監督圖像訓練( Learning from Simulated and Unsupervised Images through Adversarial Training)2016
    原文鏈接:[https://arxiv.org/pdf/1612.07828.pdf]
  22. 基於上下文RNN-GANs的抽象推理圖的生成(Contextual RNN-GANs for Abstract Reasoning Diagram Generation)2016
    原文鏈接:[https://arxiv.org/pdf/1609.09444.pdf]
  23. 生成多對抗網絡(Generative Multi-Adversarial Networks)2016
    原文鏈接:[https://arxiv.org/pdf/1611.01673.pdf]
  24. 生成對抗網絡組合(Ensembles of Generative Adversarial Network)2016
    原文鏈接:[https://arxiv.org/pdf/1612.00991.pdf]
  25. 改進生成器目標的GANs(Improved generator objectives for GANs) 2016
    原文鏈接:[https://arxiv.org/pdf/1612.02780.pdf]

2017

  1. 訓練生成對抗網絡的基本方法(Towards Principled Methods for Training Generative Adversarial Networks)2017
    原文鏈接:[https://arxiv.org/pdf/1701.04862.pdf]
  2. 生成對抗模型的隱向量精準修複(Precise Recovery of Latent Vectors from Generative Adversarial Networks)2017
    原文鏈接:[https://openreview.NET/pdf?id=HJC88BzFl]
  3. 生成混合模型(Generative Mixture of Networks)2017
    原文鏈接:[https://arxiv.org/pdf/1702.03307.pdf]
  4. 記憶生成時空模型(Generative Temporal Models with Memory)2017
    原文鏈接:[https://arxiv.org/pdf/1702.04649.pdf]
  5. 止GAN暴力:生成性非對抗模型(Stopping GAN Violence: Generative Unadversarial Networks)2017
    原文鏈接:[https://arxiv.org/pdf/1703.02528.pdf]
  6. 貝葉斯GANs:貝葉斯與GAN結合(Bayesian GAN) 原文鏈接:https://arxiv.org/abs/1705.09558

初步版本,水平有限,有錯誤或者不完善的地方,歡迎大家提建議和補充,會一直保持更新,敬請關注//www.webtourguide.com和關注專知公眾號,獲取第一手AI相關知識

成為VIP會員查看完整內容
Top