Stable diffusion(二)

avatar
作者
猴君
阅读量:0
SD colab安装

https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast_stable_diffusion_AUTOMATIC1111.ipynb#scrollTo=PjzwxTkPSPHf
https://www.youtube.com/watch?v=Q37eGFvMDbY

https://www.youtube.com/watch?v=Q37eGFvMDbY https://colab.research.google.com/github/TheLastBen/fast-stable-diffusion/blob/main/fast_stable_diffusion_AUTOMATIC1111.ipynb#scrollTo=PjzwxTkPSPHf 
界面介绍

在这里插入图片描述

  • 底模:不同的数据集训练出来的模型效果不同。有的是卡通风、有的是现实风。可以类比于GPT,用什么文案训练,对于改文案的语言通用能力就越强。
  • VAE:用于将图片压缩到潜在空间的组件,这里没有出现。
  • 采样器:用于调整迭代次数和迭代数的组合组件。不同的策略,不同结果
  • CLIP:tokenizer + text encoder。有些时候,会选择词向量/图向量的倒数第二层来作为输入。
  • CFG Scale:Classifier-Free Guidance scale,控制了提示词的参数。通常设置在7~9附近。
  • 图像生成种子/Seed:-1代表使用随机数。数量越高,代表加入的噪音越多。
  • 面部修复/高清修复:生分成真人模型的时候i要用,其他时候用不用都行
  • 脚本:用于规整化数据集的工具,后续再看用处
  • 图片信息:图片下的信息栏目,表示生成这张图片用到的参数是什么。
  • Embedding:在AI绘图里面,一个Embedding可以实现,一个关键词 = {词语1、词语2、词语3}这样的效果
VAE、底模(checkpoint)、Lora对于一张图片的影响
底模(checkpoint)LoraVAE
比如大家都是计算机院的学生。有的学生是学物联网的、有的学生是学计算机网络的、有的是学软件工程的,最后他们就业理论上应该是不同的(虽然现在都是转Java)大家都是后端选手,有的学了 C,有的学了Java,有的学了Golang,虽然都是后端,你非要让写Java的人写C也能写,但是效果还是差点意思。这个模型的作用就差点意思,把图片的信息压缩到潜在空间中去,实际反馈在图片的中的效果就是加不加滤镜,这个学到后面再研究

总结一下,底模就是决定了大方向,你要画二次元的图片、显示风格的图片等等。Lora就是纠正一下底模。

civita介绍

在这里插入图片描述

Lora介绍

如果神经网络用 Y = WX的方式来表示,那么神经网络的训练核心就是通过反向传播的方式去训练W。训练不是一蹴而就的,而是通过一次一次的迭代训练成的。每一次训练,就是在对W这个矩阵中的每一个元素做加减肥。那么Lora就是记录这个差值的矩阵集合。
举个例子
有一个 2 * 2 的矩阵 1 1 1 1 \begin{matrix}1 & 1 \\ 1 & 1\end{matrix} 1111经过两次训练变成了 3 3 3 3 \begin{matrix}3 & 3 \\ 3 & 3\end{matrix} 3333训练过程就是每次每个元素加1,那么对应的Lora就是 两个 1 1 1 1 \begin{matrix}1 & 1 \\ 1 & 1\end{matrix} 1111
这样的好处在于,在后面反向传播中,矩阵的计算是非常复杂的,使用Lora可以降低计算的难度。并且Lora记录差值,相对较小。并且还可以通过矩阵分解的方式进一步拆分Lora。

广告一刻

为您即时展示最新活动产品广告消息,让您随时掌握产品活动新动态!