Stable Diffusion
原作者 | Runway、CompVis、Stability AI |
---|---|
开发者 | Stability AI |
首次发布 | 2022年8月22日 |
当前版本 |
|
源代码库 | |
编程语言 | Python |
操作系统 | 任何支持CUDA内核函数的操作系统 |
类型 | 文本到图像生成模型 |
许可协议 |
|
网站 | stability |
Stable Diffusion是2022年发布的深度学习文本到图像生成模型。它主要用于根据文本的描述产生详细图像,尽管它也可以应用于其他任务,如内补绘制、外补绘制,以及在提示词指导下产生图生图的转变。[2]
它是一种潜在变量模型的扩散模型,由慕尼黑大学的CompVis研究团体开发的各种生成性人工神经网络之一。[3]它是由初创公司StabilityAI、CompVis与Runway合作开发,并得到EleutherAI和LAION的支持。[4][5][6] 截至2022年10月,StabilityAI筹集了1.01亿美元的资金。[7]
Stable Diffusion的代码和模型权重已公开发布,可以在大多数配备有适度GPU的电脑硬件上运行。而以前的专有文生图模型(如DALL-E和Midjourney)只能通过云计算服务访问。[8][9]
技术架构
Stable Diffusion是一种扩散模型(diffusion model)的变体,叫做“潜在扩散模型”(latent diffusion model; LDM)。扩散模型是在2015年推出的,其目的是消除对训练图像的连续应用高斯噪声,可以将其视为一系列去噪自编码器。Stable Diffusion由3个部分组成:变分自编码器(VAE)、U-Net和一个文本编码器。与其学习去噪图像数据(在“像素空间”中),而是训练VAE将图像转换为低维潜在空间。添加和去除高斯噪声的过程被应用于这个潜在表示,然后将最终的去噪输出解码到像素空间中。在前向扩散过程中,高斯噪声被迭代地应用于压缩的潜在表征。每个去噪步骤都由一个包含残差神经网络(ResNet)中间的U-Net架构完成,通过从前向扩散往反方向去噪而获得潜在表征。最后,VAE解码器通过将表征转换回像素空间来生成输出图像。研究人员指出,降低训练和生成的计算要求是LDM的一个优势。[4][3]
去噪步骤可以以文本串、图像或一些其他数据为条件。调节数据的编码通过交叉注意机制(cross-attention mechanism)暴露给去噪U-Net的架构。为了对文本进行调节,一个预训练的固定CLIP ViT-L/14文本编码器被用来将提示词转化为嵌入空间。[3][5]
用法
Stable Diffusion模型支持通过使用提示词来产生新的图像,描述要包含或省略的元素,[5]以及重新绘制现有的图像,其中包含提示词中描述的新元素(该过程通常被称为“指导性图像合成”(guided image synthesis)[10])通过使用模型的扩散去噪机制(diffusion-denoising mechanism)。[5] 此外,该模型还允许通过提示词在现有的图中进内联补绘制和外补绘制来部分更改,当与支持这种功能的用户界面使用时,其中存在许多不同的开源软件。[11]
Stable Diffusion建议在10GB以上的显存(VRAM)下运行, 但是VRAM较少的用户可以选择以float16的精度加载权重,而不是默认的float32,以降低VRAM使用率。[12]
文生图
Stable Diffusion中的文生图采样脚本,称为"txt2img",接受一个提示词,以及包括采样器(sampling type),图像尺寸,和随机种子的各种选项参数,并根据模型对提示的解释生成一个图像文件。[5] 生成的图像带有不可见的数字水印标签,以允许用户识别由Stable Diffusion生成的图像,[5]尽管如果图像被调整大小或旋转,该水印将失去其有效性。[13] Stable Diffusion模型是在由512×512分辨率图像组成的数据集上训练出来的,[5][14]这意味着txt2img生成图像的最佳配置也是以512×512的分辨率生成的,偏离这个大小会导致生成输出质量差。[12] Stable Diffusion 2.0版本后来引入了以768×768分辨率图像生成的能力。[15]
每一个txt2img的生成过程都会涉及到一个影响到生成图像的随机种子;用户可以选择随机化种子以探索不同生成结果,或者使用相同的种子来获得与之前生成的图像相同的结果。[12] 用户还可以调整采样迭代步数(inference steps);较高的值需要较长的运行时间,但较小的值可能会导致视觉缺陷。[12] 另一个可配置的选项,即无分类指导比例值,允许用户调整提示词的相关性(classifier-free guidance scale value);[16]更具实验性或创造性的用例可以选择较低的值,而旨在获得更具体输出的用例可以使用较高的值。[12]
反向提示词(negative prompt)是包含在Stable Diffusion的一些用户界面软件中的一个功能(包括StabilityAI自己的“Dreamstudio”云端软件即服务模式订阅制服务),它允许用户指定模型在图像生成过程中应该避免的提示,适用于由于用户提供的普通提示词,或者由于模型最初的训练,造成图像输出中出现不良的图像特征,例如畸形手脚。[11][17] 与使用强调符(emphasis marker)相比,使用反向提示词在降低生成不良的图像的频率方面具有高度统计显著的效果;强调符是另一种为提示的部分增加权重的方法,被一些Stable Diffusion的开源实现所利用,在关键词中加入括号以增加或减少强调。[18]
图生图
Stable Diffusion包括另一个取样脚本,称为"img2img",它接受一个提示词、现有图像的文件路径和0.0到1.0之间的去噪强度,并在原始图像的基础上产生一个新的图像,该图像也具有提示词中提供的元素;去噪强度表示添加到输出图像的噪声量,值越大,图像变化越多,但在语义上可能与提供的提示不一致。[5] 图像升频是img2img的一个潜在用例,除此之外。[5]
2022年11月24日发布的Stable Diffusion 2.0版本包含一个深度引导模型,称为"depth2img",该模型推断所提供的输入图像的深度,并根据提示词和深度信息生成新图像,在新图像中保持原始图像的连贯性和深度。[15]
内补绘制与外补绘制
Stable Diffusion模型的许多不同用户界面软件提供了通过img2img进行图生图的其他用例。内补绘制(inpainting)由用户提供的蒙版描绘的现有图像的一部分,根据所提供的提示词,用新生成的内容填充蒙版的空间。[11] 随着Stable Diffusion 2.0版本的发布,StabilityAI同时创建了一个专门针对内补绘制用例的专用模型。[15] 相反,外补绘制(outpainting)将图像扩展到其原始尺寸之外,用根据所提供的提示词生成的内容来填补以前的空白空间。[11]
许可证
与DALL-E等模型不同,Stable Diffusion提供其源代码[19][5]以及预训练的权重。其许可证禁止某些使用案例,包括犯罪,诽谤,骚扰,人肉搜索,“剥削…未成年人”,提供医疗建议,自动创建法律义务,伪造法律证据,以及“基于…社会行为或…个人或人格特征…或受法律保护的特征或类别而歧视或伤害个人或群体”。[20][21] 用户拥有其生成的图像的权利,并可自由地将其用于商业用途。[22]
模型训练
Stable Diffusion是在LAION-5B的图片和标题对上训练的,LAION-5B是一个公开的数据集,源自从网络上抓取的公用抓取数据。该数据集由LAION创建,LAION是一家德国非营利组织,接受StabilityAI的资助。[14][23] 该模型最初是在LAION-5B的一个大子集上训练的,最后几轮训练是在“LAION-Aesthetics v2 5+”上进行的,这是一个由6亿张带标题的图片组成的子集,人工智能预测人类在被要求对这些图片的喜欢程度打分时至少会给5/10打分。[14][24] 这个最终的子集也排除了低分辨率的图像和被人工智能识别为带有水印的图像。[14] 对该模型的训练数据进行的第三方分析发现,在从所使用的原始更广泛的数据集中抽取的1200万张图片的较小子集中,大约47%的图像样本量来自100个不同的网站,其中Pinterest占8.5%子集,其次是WordPress,Blogspot,Flickr,DeviantArt和维基共享资源等网站。[14]
该模型是在亚马逊云计算服务上使用256个NVIDIA A100 GPU训练,共花费15万个GPU小时,成本为60万美元。[25][26][27]
终端用户微调训练
为了纠正模型初始训练的局限性,终端用户可以选择实施额外的训练,以微调生成输出以匹配更具体的使用情况。有三种方法可以让用户对Stable Diffusion模型权重存档点进行微调:
- “嵌入”(Embedding)可以从用户提供的一些图像被训练出来,并允许模型在提示词中使用嵌入的名称时生成视觉上相似的图像。[28]嵌入是基于2022年台拉维夫大学的研究人员在英伟达的支持下开发的“文本倒置”(Textual Inversion)概念,其中模型的文本编码器使用的特定标记的矢量表示与新的伪词相关系。嵌入可以用来减少原始模型中的偏差,或模仿风格。[29]
- “超网络”(Hypernetwork)是NovelAI软件开发员Kurumuz在2021年创造的一种技术,最初用于调节文本生成的Transformer模型,它能让Stable Diffusion派生的文生图模型模仿各种特定艺术家的风格,无论原始模型能否识别此艺术家,通过在较大的神经网络中的不同点应用一个预训练的小神经网络。超网络将文生图或图生图结果导向特定方向,例如加上艺术风格,当与一个较大的神经网络结合使用时。它通过查找重要的关键区域来处理图像(例:眼睛,头发),然后在二级潜在空间中修补这些区域。超网络的一个缺点是它们的准确性相对较低,也有时会产生不可预知的结果。因此,超网络适用于加上视觉风格或清理人体瑕疵。[30]
- DreamBooth是一个深度学习模型,由Google Research和波士顿大学的研究人员于2022年开发,可以微调模型以产生与指定主题相关的输出图像。[31]
发行
版本号 | 发行日期 | 注释 | 引用 |
---|---|---|---|
1.0 | |||
1.4 | 2022年8月 | [32] | |
1.5 | 2022年10月 | [33] | |
2.0 | 2022年11月 | [34] | |
2.1 | 2022年12月 | [35] | |
XL 1.0 | 2023年7月 | [36] |
社会影响
由于艺术风格和构图不受著作权保护,因此通常认为使用Stable Diffusion生成艺术品图像的用户不应被视为侵犯视觉相似作品的著作权,绝大部分的画作作者也没有授权允许用他们的作品训练ai,这将导致画师的失业。[37][38] 如果生成的图像中所描述的真人被使用,他们仍然受到人格权的保护,[38] 而且诸如可识别的品牌标识等知识产权仍然受到著作权保护。尽管如此,艺术家们表示担心Stable Diffusion等模型的广泛使用最终可能导致人类艺术家以及摄影师、模特、电影摄影师和演员逐渐失去与基于人工智能的竞争对手的商业可行性。[23]
与其他公司的类似机器学习图像合成产品相比,Stable Diffusion在用户可能产生的内容类型方面明显更加宽容,例如暴力或性暴露的图像。[39]
StabilityAI的首席执行官Emad Mostaque解决了该模型可能被用于滥用目的的担忧,他解释说:“人们有责任了解他们在操作这项技术时是否符合道德、道德和法律”,[9]将Stable Diffusion的能力交到公众手中会使该技术在整体上提供净收益,即使有潜在的负面后果。[9] 此外,Mostaque认为,Stable Diffusion的开放可用性背后的意图是结束大公司对此类技术的控制和主导地位,他们之前只开发了封闭的人工智能系统进行图像合成。[9][39]
参见
参考文献
- ^ https://stability.ai/news/introducing-stable-diffusion-3-5.
- ^ Diffuse The Rest - a Hugging Face Space by huggingface. huggingface.co. [2022-09-05]. (原始内容存档于2022-09-05) (英语).
- ^ 3.0 3.1 3.2 Rombach; Blattmann; Lorenz; Esser; Ommer. High-Resolution Image Synthesis with Latent Diffusion Models (PDF). International Conference on Computer Vision and Pattern Recognition (CVPR). New Orleans, LA: 10684–10695. June 2022 [2022-10-10]. arXiv:2112.10752 . (原始内容存档 (PDF)于2023-01-20) (英语).
- ^ 4.0 4.1 Stable Diffusion Launch Announcement. Stability.Ai. [2022-09-06]. (原始内容存档于2022-09-05) (英语).
- ^ 5.00 5.01 5.02 5.03 5.04 5.05 5.06 5.07 5.08 5.09 Stable Diffusion Repository on GitHub. CompVis - Machine Vision and Learning Research Group, LMU Munich. 17 September 2022 [17 September 2022]. (原始内容存档于2023-01-18) (英语).
- ^ Revolutionizing image generation by AI: Turning text into images. LMU Munich. [17 September 2022]. (原始内容存档于2022-09-17) (英语).
- ^ Wiggers, Kyle. Stability AI, the startup behind Stable Diffusion, raises $101M. Techcrunch. [2022-10-17]. (原始内容存档于2022-10-17) (英语).
- ^ The new killer app: Creating AI art will absolutely crush your PC. PCWorld. [2022-08-31]. (原始内容存档于2022-08-31) (英语).
- ^ 9.0 9.1 9.2 9.3 Vincent, James. Anyone can use this AI art generator — that’s the risk. The Verge. 15 September 2022 [2022-10-10]. (原始内容存档于2023-01-21) (英语).
- ^ Meng, Chenlin; He, Yutong; Song, Yang; Song, Jiaming; Wu, Jiajun; Zhu, Jun-Yan; Ermon, Stefano. SDEdit: Guided Image Synthesis and Editing with Stochastic Differential Equations. arXiv (arXiv). August 2, 2021 [2022-10-10]. doi:10.48550/arXiv.2108.01073. (原始内容存档于2022-12-09) (英语).
- ^ 11.0 11.1 11.2 11.3 Stable Diffusion web UI. GitHub. [2022-10-10]. (原始内容存档于2023-01-20) (英语).
- ^ 12.0 12.1 12.2 12.3 12.4 Stable Diffusion with 🧨 Diffusers. Hugging Face official blog. August 22, 2022 [2022-10-10]. (原始内容存档于2023-01-17) (英语).
- ^ invisible-watermark README.md. GitHub. [2022-10-10]. (原始内容存档于2022-09-29) (英语).
- ^ 14.0 14.1 14.2 14.3 14.4 Baio, Andy. Exploring 12 Million of the 2.3 Billion Images Used to Train Stable Diffusion's Image Generator. Waxy.org. 30 August 2022 [2022-10-10]. (原始内容存档于2023-01-20) (英语).
- ^ 15.0 15.1 15.2 Stable Diffusion 2.0 Release. stability.ai. [2022-12-11]. (原始内容存档于2022-12-10) (英语).
- ^ Ho, Jonathan; Salimans, Tim. Classifier-Free Diffusion Guidance. arXiv (arXiv). July 26, 2022 [2022-10-10]. doi:10.48550/arXiv.2207.12598. (原始内容存档于2023-01-03) (英语).
- ^ Stable Diffusion v2.1 and DreamStudio Updates 7-Dec 22. stability.ai. [2022-12-11]. (原始内容存档于2022-12-10) (英语).
- ^ Johannes Gaessler. Emphasis. GitHub. September 11, 2022 [2022-10-10]. (原始内容存档于2022-12-09) (英语).
- ^ Stable Diffusion Public Release. Stability.Ai. [2022-08-31]. (原始内容存档于2022-08-30) (英语).
- ^ Ready or not, mass video deepfakes are coming. The Washington Post. 2022-08-30 [2022-08-31]. (原始内容存档于2022-08-31) (英语).
- ^ License - a Hugging Face Space by CompVis. huggingface.co. [2022-09-05]. (原始内容存档于2022-09-04) (英语).
- ^ Katsuo Ishida. 言葉で指示した画像を凄いAIが描き出す「Stable Diffusion」 ~画像は商用利用も可能. Impress Corporation. August 26, 2022 [2022-10-10]. (原始内容存档于2022-11-14) (日语).
- ^ 23.0 23.1 Heikkilä, Melissa. This artist is dominating AI-generated art. And he's not happy about it.. MIT Technology Review. 16 September 2022 [2022-10-10]. (原始内容存档于2023-01-14) (英语).
- ^ LAION-Aesthetics | LAION. laion.ai. [2022-09-02]. (原始内容存档于2022-08-26) (英语).
- ^ Mostaque, Emad. Cost of construction. Twitter. August 28, 2022 [2022-09-06]. (原始内容存档于2022-09-06) (英语).
- ^ Stable Diffusion v1-4 Model Card. huggingface.co. [2022-09-20]. (原始内容存档于2023-01-11) (英语).
- ^ This startup is setting a DALL-E 2-like AI free, consequences be damned. TechCrunch. [2022-09-20]. (原始内容存档于2023-01-19) (英语).
- ^ Dave James. I thrashed the RTX 4090 for 8 hours straight training Stable Diffusion to paint like my uncle Hermann. PC Gamer. 2022-10-28 [2022-12-11]. (原始内容存档于2022-11-09) (英语).
- ^ Gal, Rinon; Alaluf, Yuval; Atzmon, Yuval; Patashnik, Or; Bermano, Amit H.; Chechik, Gal; Cohen-Or, Daniel. An Image is Worth One Word: Personalizing Text-to-Image Generation using Textual Inversion. 2022-08-02. arXiv:2208.01618 [cs.CV] (英语).
- ^ NovelAI Improvements on Stable Diffusion. NovelAI. 2022-10-11. (原始内容存档于2022-10-27) (英语).
- ^ 山下裕毅. 愛犬の合成画像を生成できるAI 文章で指示するだけでコスプレ 米Googleが開発. ITmedia Inc. 2022-09-01 [2022-12-11]. (原始内容存档于2022-08-31) (日语).
- ^ CompVis/stable-diffusion-v1-4 · Hugging Face. huggingface.co. [2023-08-17].
- ^ runwayml/stable-diffusion-v1-5 · Hugging Face. huggingface.co. [2023-08-17].
- ^ stabilityai/stable-diffusion-2 · Hugging Face. huggingface.co. [2023-08-17].
- ^ stabilityai/stable-diffusion-2-1 · Hugging Face. huggingface.co. [2023-08-17].
- ^ stabilityai/stable-diffusion-xl-base-1.0 · Hugging Face. huggingface.co. [2023-08-17].
- ^ 存档副本. [2023-04-13]. (原始内容存档于2023-04-17).
- ^ 38.0 38.1 高性能画像生成AI「Stable Diffusion」無料リリース。「kawaii」までも理解し創造する画像生成AI. Automaton Media. August 24, 2022 [2022-10-10]. (原始内容存档于2022-12-08) (日语).
- ^ 39.0 39.1 Ryo Shimizu. Midjourneyを超えた? 無料の作画AI「 #StableDiffusion 」が「AIを民主化した」と断言できる理由. Business Insider Japan. August 26, 2022 [2022-10-10]. (原始内容存档于2022-12-10) (日语).