2024 Ai绘画技术大爆发的一年,目前两款Ai神器大火,一款是大名鼎鼎的Midjourney,另外一款—Stable Diffusion。而Stable Diffusion它究竟能做什么?
看了这么多,那么学长要开始讲一讲今天的重点东西了
1,Stable Diffusion原理:
Stable Diffusion:是一种基于扩散模型的先进的人工智能技术,特别适用于文本到图像(Text-to-Image)的生成任务。它利用扩散过程在潜在空间(latent space)中生成图像,而不是直接在高维像素空间中操作。
SD WebUI : Stable Diffusion Web UI (SD WebUI) 是一个用于交互式控制和使用 Stable Diffusion 模型的网页应用程序界面。用户可以通过这个界面输入文本提示(prompt)来驱动模型生成相应的图像,提供了简单易用的方式来体验和定制基于 Stable Diffusion 的文本到图像生成过程。
Controlnet: 针对 Stable Diffusion 模型开发的一种功能扩展插件,它允许用户在文本生成图像的过程中实现更为细致和精确的控制。该插件使得用户不仅能够通过文本提示(prompt)指导模型生成图像,还能添加额外的输入条件,比如控制图像的构图、颜色、纹理、物体位置、人物姿势、景深、线条草图、图像分割等多种图像特征。通过这种方式,ControlNet 提升了 AI 绘画系统的可控性和灵活性,使得艺术创作和图像编辑更加精细化。
VAE: Variational Autoencoder (VAE): 变分自编码器是一种概率生成模型,它结合了编码器(将输入数据编码为潜在空间中的概率分布)和解码器(从潜在空间重构数据)的概念。在图像生成场景中,VAE可以用来学习数据的潜在表示,并基于这些表示生成新的图像。
CHECKPOINT: Checkpoint模型的原理相对简单。在训练过程中,我们会定期保存模型的参数、优化器的状态等信息。这些信息被保存在一个或多个文件中,这些文件就是我们的检查点。当需要恢复训练时,我们只需要加载最近的检查点文件,然后从中读取模型的参数和优化器的状态,就可以继续训练了。
工作原理:
Stable Diffusion是一个基于扩散模型的生成式AI,主要用于文本到图像的生成任务。其工作原理主要包括前向扩散和反向扩散两个过程,结合变分自编码器(VAE)来压缩图像信息。
扩散模型:(Diffusion Model)的核心原理被生动地比喻为物理学中的扩散过程,通过前向扩散过程逐渐将图像转化为噪声图像,然后通过反向扩散过程恢复出清晰的图像。在Stable Diffusion中,模型训练了一个噪声预测器(noise predictor),它是一个U-Net结构的神经网络,可以预测并从图像中去除噪声,从而重构原始图像。
2、Stable Diffusion部署
本地部署:
秋叶安装包:
SD WebUI秋叶整合包与SD Webui绘世启动器
SD WebUI秋叶整合包【A卡适配版】
学好 AI绘画 不论是就业还是做副业赚钱都不错,但要学会 AI绘画 还是要有一个学习规划。最后大家分享一份全套的 AI绘画 学习资料,给那些想学习 AI绘画 的小伙伴们一点帮助!
对于0基础小白入门:
包括:stable diffusion安装包、stable diffusion0基础入门全套PDF,视频学习教程。带你从零基础系统性的学好AI绘画!
因篇幅问题不能全部显示,请点此查看更多更全内容
Copyright © 2019- zicool.com 版权所有 湘ICP备2023022495号-2
违法及侵权请联系:TEL:199 1889 7713 E-MAIL:2724546146@qq.com
本站由北京市万商天勤律师事务所王兴未律师提供法律服务