人工智能生成内容
跳到导航
跳到搜索
AIGC(Artificial Intelligence Generative Content),人工智能生成内容,让 AI 自己创作各种各样的内容,比如图片、视频、音乐、文字等。
GAN
AIGC 领域使用最多的算法模型名为对抗生成网络 GAN(Generative adversarial networks),顾名思义就是让 AI 内部的两个程序互相对比,从而生成最接近人类心目中的正确形象。由于程序互相对比的标准是现成的样本,因此生成的内容实质上是对现有内容无限逼近的模仿,无法真正突破。
Diffusion
GAN 的缺点被最终被 Diffusion 扩散化模型克服,它是近年以来陆续涌现的包括 Stable Diffusion 开源模型在内的诸多 AIGC 图片生成模型的技术核心。
Diffusion 扩散化模型的原理类似给照片去噪点,通过学习给一张图片去噪的过程来理解有意义的图像是如何生成,因此 Diffusion 模型生成的图片相比 GAN 模型精度更高,更符合人类视觉和审美逻辑,同时随着样本数量和深度学习时长的累积,Diffusion 模型展现出对艺术表达风格较好的模仿能力。
从引起广泛关注的 Disco Diffusion ,再到 DALL-E2、MidJourney 等模型都是基于 Diffusion 模型,而 Stable Diffusion 是其中最受欢迎的。
虽然目前 AIGC 主流模型基于 Diffusion,但 GAN 作为生成模型的前辈,依然在很多领域大放异彩。