浙江嘉兴网站建设,凌河建设网站,昵图网 图库 素材,网站平台建设所需开发工具Generative Adversarial Nets由伊恩古德费洛#xff08;Ian J.Goodfellow#xff09;等人于2014年发表在Conference on Neural Information Processing Systems (NeurIPS)上。NeurIPS是机器学习和计算神经科学领域的顶级国际学术会议之一。
1. GAN在哪些领域大放异彩
图像生…Generative Adversarial Nets由伊恩·古德费洛Ian J.Goodfellow等人于2014年发表在Conference on Neural Information Processing Systems (NeurIPS)上。NeurIPS是机器学习和计算神经科学领域的顶级国际学术会议之一。
1. GAN在哪些领域大放异彩
图像生成
论文地址styleGAN styleGAN2 图像生成是生成模型的基本问题GAN相对先前的生成模型能够生成更高图像质量的图像。如生成逼真的人脸图像。https://thispersondoesnotexist.com是一个叫做‘这个人不存在’的网站它是基于GAN的一个随机人脸生成网站每次刷新该网站都将生成一个不同的人脸。
图像超分辨率
论文地址SRGAN 将图像放大时图片会变得模糊。使用GAN将32*32的图像扩展为64*64的真实图像放大图像的同时提升图片的分辨率。
图像转化
论文地址CycleGAN CycleGAN即循环生成对抗网络出自发表于 ICCV17 的论文《Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks》和它的兄长Pix2Pix均为朱大神作品一样用于图像风格迁移任务。以前的GAN都是单向生成CycleGAN为了突破Pix2Pix对数据集图片一一对应的限制采用了双向循环生成的结构因此得名CycleGAN。 其他GAN领域
生成对抗网络GANs在多个领域都取得了显著的成就其灵活性和强大的生成能力使其能够应用于各种应用。 图像生成与转换 pix2pix 和 CycleGAN 用于图像转换例如风格迁移、图片翻译等。StyleGAN 和 ProGAN 生成高分辨率逼真的图像用于人脸合成和自然图像生成。 人脸生成和编辑 DeepFake 技术 使用 GANs 进行逼真的人脸合成。StarGAN 和 Age-cGAN 实现多领域的人脸编辑如年龄、性别、表情等。 图像修复和超分辨率 Super-Resolution GANsSRGAN 用于提高图像的分辨率。Deep Image Prior 利用 GANs 进行图像修复。 生成式艺术 Artbreeder 利用 GANs 进行创造性的艺术生成探索图像合成的艺术应用。 医学图像生成与分割 生成医学图像 GANs 用于生成具有各种病例特征的医学图像用于培训机器学习模型。图像分割 利用 GANs 进行医学图像的分割和增强。 风格迁移和设计 Neural Style Transfer 使用 GANs 进行艺术风格的图像转换。FashionGAN 用于时尚设计和生成。 文本生成 Text-to-Image Synthesis GANs 用于将文本描述转换为图像。Conditional GANs 用于生成与给定文本描述相关的图像。 无监督学习和数据增强 生成无监督特征 GANs 用于学习无监督的特征表示。数据增强 GANs 用于生成额外的训练数据提高监督学习模型的性能。
其他GAN论文 pix2pix: https://affinelayer.com/pixsrv/ DiscoGAN:https://github.com/carpedm20/DiscoGAN-pytorch TPGAN: https://arxiv.org/pdf/1704.04086.pdf pix2pix HD:https://tcwang0509.github.io/pix2pixHD/ stackGAN: https://arxiv.org/pdf/1612.03242.pdf AttnGAN:https://arxiv.org/abs/1711.10485 DTN:https://arxiv.org/pdf/1611.02200.pdf MGAN: https://arxiv.org/pdf/1604.04382.pdf Age-cGAN:https://arxiv.org/pdf/1702.01983.pdf StarGAN:https://arxiv.org/abs/1711.09020 Image Inpainting:https://arxiv.org/abs/1804.07723 MaskGAN:https://arxiv.org/abs/1801.07736
GAN工作原理
生成对抗网络GAN由两个主要部分组成生成器Generator和判别器Discriminator。这两个部分通过对抗的方式共同学习使得生成器能够生成逼真的数据而判别器能够区分真实数据和生成器生成的数据。
生成器
在统计学眼中整个世界是通过采样各种不同的分布得到的。 生成模型对整个数据的分布进行建模使得能够生成各种分布。 生成图片、生成文本、生成各种东西就是去抓住整个数据的一个分布。
生成器Generator
生成器的目标是生成看起来像真实数据的样本。它接收一个随机噪声向量通常是从正态分布中采样得到的作为输入并通过神经网络生成数据。生成器的目标是欺骗判别器使其无法区分生成的数据和真实数据。
辨别器
判别器Discriminator
判别器的目标是区分生成器生成的数据和真实数据。它接收真实数据或生成器生成的数据作为输入并通过神经网络输出一个概率值表示输入是真实数据的概率。判别器的目标是正确地将真实数据识别为真实并将生成的数据识别为伪造。
Generative Adversarial Nets Introduction部分
论文提到深度学习的前景是发现丰富的分层模型这些模型代表了AI应用中遇到的各种数据的概率分布。即深度学习不仅仅是深度神经网络更多的是对整个数据分布的一个特征的表示。 深度学习在辨别上做的不错但在生成上的效果不好难点在于去最大化似然函数时我们要对概率函数很多近似近似带来了很大的计算困难。这篇文章的关键是不用近似似然函数而可以用别的方法来得到一个计算上更好的模型
作者在文中做了一个形象的比喻将生成器比作一个生产假币的造假者而判别模型类似于警察试图检测假币。造假者和警察会不断学习造假者提升自己造假的手段警察会提升自己判别真假币的能力。最后希望得到这样一个结果造假者获胜造的假钱跟真的一样使得警察无法区分真币假币。
该框架可以针对多种模型和优化算法给出具体的训练算法。在本文中我们探究了生成模型通过多层感知机传递随机噪声生成样本时的特殊情况而判别模型也是多层感知机。我们把这种特殊情况称为adversarial nets。在这种情况下我们可以只使用非常成功的反向传播和dropout算法来训练这两个模型也可以只使用前向传播从生成模型中采样。不需要任何近似推断或马尔可夫链。
Generative Adversarial Nets Related work部分
在这一部分作者提到之前的大多数关于深度生成模型的工作一个是构造出一个分布函数然后提供参数供其学习学习出真实的分布明白其均值、方差到底是什么。一个是不去构造分布函数而是学一个模型来近似这个分布但是不知道最后的分布是怎样的算起来较容易。 随后提到他们观察到的一个结果对 f f f的期望求导等价于对 f f f自己求导。这也就是为什么他们使用误差反向传播的原因。 之后作者提到了一些相关的工作包括VAE、NCE并解释了与predictability minimization算法的区别
发现这里有总结的较好的后续可以查看这里https://blog.csdn.net/qq_45138078/article/details/128366117
Generative Adversarial Nets的缺陷及后续的改进
训练不稳定外层循环迭代N次直到完成如何判断是否收敛这里有两项一个是往上走(max)一个是往下走(min)有两个模型所以如何判断收敛并不容易。整体来说GAN的收敛是非常不稳定的。
判别器训练得太好在价值函数中等式右边的第二项存在一定的问题在早期的时候G比较弱生成的数据跟真实的数据差得比较远这就很容易将D训练的特别好D能够完美地区分开生成的数据和真实的数据就导致log(1-D(G(z)))会变成0求梯度再更新G的时候就会发现求不动了。
后续论文改进
Improved Techniques for Training GANs提出了一系列的训练技巧包括正则化项、生成器和判别器的架构选择等以提高GAN的训练稳定性和生成样本的质量。Wasserstein GAN引入Wasserstein距离Earth Mover’s Distance作为GAN的目标函数通过减小生成分布和真实分布之间的差异改善了训练的稳定性和生成图像的质量。Least Squares Generative Adversarial Networks使用最小二乘损失函数代替原始GAN的二元交叉熵损失有助于解决训练过程中的模式崩溃问题提高生成图像的质量。Self-Attention Generative Adversarial Networks引入了自注意力机制使生成器能够更好地捕捉输入数据的长距离依赖关系提高生成图像的细节和整体质量。Training Generative Adversarial Networks with Limited Data针对有限数据情况提出了一种基于数据增强和迁移学习的方法以改善生成模型在数据稀缺情况下的性能。
GAN未来及挑战
随着OpenAI发布DALL-E 2自回归模型和扩散模型一夜之间成为大规模生成模型的新标准而在此之前生成对抗网络GAN一直都是主流选择并衍生出StyleGAN等技术。 扩散模型:当前DALL-E, Midjourney, Stable Diffusion图片生成的核心都是Diffusion Model它就是通过不停去除噪音期望获得好结果的生成模型。 扩散模型只需要训练一个模型优化过程更加稳定。 扩散模型在条件生成任务上确实要优于GAN特别是在生成的多样性方面。 扩散模型的训练过程相对简单优化更为容易。 两阶段扩散模型可以进一步提高生成图片的质量其效果通常超过了单一的GAN模型
大模型下的GAN-GigaGAN
针对增加StyleGAN架构容量会导致不稳定的问题来自浦项科技大学韩国、卡内基梅隆大学和Adobe研究院的研究人员提出了一种全新的生成对抗网络架构GigaGAN打破了模型的规模限制展示了 GAN 仍然可以胜任文本到图像合成模型。https://arxiv.org/abs/2303.05511