人工智能生成内容:修订间差异
跳到导航
跳到搜索
(创建页面,内容为“AIGC(Artificial Intelligence Generative Content),人工智能生成内容,让 AI 自己创作各种各样的内容,比如图片、视频、音乐、文字等。 ==== GAN ==== AIGC 领域使用最多的算法模型名为对抗生成网络 GAN(Generative adversarial networks),顾名思义就是让 AI 内部的两个程序互相对比,从而生成最接近人类心目中的正确形象。由于程序互相对比的标准是现成的样本,因此生成…”) |
无编辑摘要 |
||
第13行: | 第13行: | ||
虽然目前 AIGC 主流模型基于 Diffusion,但 GAN 作为生成模型的前辈,依然在很多领域大放异彩。 | 虽然目前 AIGC 主流模型基于 Diffusion,但 GAN 作为生成模型的前辈,依然在很多领域大放异彩。 | ||
=== Generative Pre-trained Transformer === | |||
# [https://gemini.google.com/ Google gemini] | |||
# [https://you.com/ ChatGPT3.5 - You] | |||
# [https://yiyan.baidu.com/ 文心一言] | |||
== 参考 == | == 参考 == |
2024年4月2日 (二) 16:46的最新版本
AIGC(Artificial Intelligence Generative Content),人工智能生成内容,让 AI 自己创作各种各样的内容,比如图片、视频、音乐、文字等。
GAN
AIGC 领域使用最多的算法模型名为对抗生成网络 GAN(Generative adversarial networks),顾名思义就是让 AI 内部的两个程序互相对比,从而生成最接近人类心目中的正确形象。由于程序互相对比的标准是现成的样本,因此生成的内容实质上是对现有内容无限逼近的模仿,无法真正突破。
Diffusion
GAN 的缺点被最终被 Diffusion 扩散化模型克服,它是近年以来陆续涌现的包括 Stable Diffusion 开源模型在内的诸多 AIGC 图片生成模型的技术核心。
Diffusion 扩散化模型的原理类似给照片去噪点,通过学习给一张图片去噪的过程来理解有意义的图像是如何生成,因此 Diffusion 模型生成的图片相比 GAN 模型精度更高,更符合人类视觉和审美逻辑,同时随着样本数量和深度学习时长的累积,Diffusion 模型展现出对艺术表达风格较好的模仿能力。
从引起广泛关注的 Disco Diffusion ,再到 DALL-E2、MidJourney 等模型都是基于 Diffusion 模型,而 Stable Diffusion 是其中最受欢迎的。
虽然目前 AIGC 主流模型基于 Diffusion,但 GAN 作为生成模型的前辈,依然在很多领域大放异彩。