散了吧,就支持7900,6000系列及以下不知道以后会不会支持,我的580 2048sp画色图速度看了下只有4-5s/lt(w ...
10秒吧 6900xt 512*512几秒出
768*512 A卡硬件还行,就是驱动太拉了。 Victor.dou 发表于 2023-6-3 13:21
RX6700XT 按照 Tom's Hardware文章的测试参数,跑512x512, 100it 约16秒,6.25it/s.
那挺快的 大头吃小头 发表于 2023-6-3 13:24
10秒吧 6900xt 512*512几秒出
768*512
这么速度 Victor.dou 发表于 2023-6-3 13:20
官方不做RDNA游戏卡的 rocm 测试和验证,所以不加进支持列表。
可以加环境变量来支持RDNA 1+2 游戏卡。
牛逼。。 本帖最后由 raiya 于 2023-6-3 23:54 编辑
HaYuanJi 发表于 2023-6-3 08:26
AI绘图可以给个教程么,手持24G英伟达不知从何入手
1,下载安装,这部分自己去看。基本逻辑就是架设一个本地的服务器,然后用浏览器去访问自己这个本地服务器使用。git clone之类的,你就当在dos之类的界面下,去执行一个下载安装命令。
2,基本结构,模型基分为checkpoint ,LORA,hypernet,embiding。
checkpoint是大模型,一个2G~。这个东西是包含着生成图片的时候的绝大部分内容和基础,在生成图片的时候只能选一个,相当于选一个模式。当然咯,这个东西也是可以训练的,是可以几个模型合并的。
然后下面那些都是小模型,是可以用词条添加在图片生成内容里面的,没有数量限制。
embiding,基本上就是权重改变,容量很小,无法为大模型引入新内容。
hypernet,这个东西比上面那个大,是可以引入新内容的。但是这个东西的问题在于它的优先级甚至高于大模型checkpoint,相当于直接给画师的脑子动刀了,很难用。
lora,主要用的是这个。和hypernet一样,是可以引入新内容的。它的特点是优先级低于checkpoint,所以它可以引入新内容,但是不影响checkpoint的基本内容。
以上模型,embiding和hypernet可以在SD主页训练。checkpoint和lora需要另外的安装kohya服务器训练。
3,使用方面的基础知识。
首先生成图片,是选择一个checkpoint,然后增加正负词条,和LORA。
初步生成的一般只有512X512左右尺寸的图片,最大不超过1024x1024。然后再去用算法放大到高清。
因为呢,首先AI的原理,就算是512x512的图片,但是生成或者训练的时候,是以维度为单位的,所以占用的资源是指数级。4090也就能生成原生1200左右的图片了。
然后因为上面的原因,大部分的模型就是依照512x512的像素去训练的。而AI画图,实际上它只是模仿。你给他训练的时候是512的,你让他一次性画1024图,他只会画成 4个512的,结果就是画出来4个脑袋之类的。
而高清放大,实际上也是把画面分割成小块,让AI画小块然后拼起来。
而为什么要用正负词条呢。因为训练的时候,要素不会那么干净。训练的时候,一张图片,会标注这张图片上是什么,但是AI实际上是不懂的。所以你比如说,你训练的时候,你把几张【小美】的照片,拿来标注。里面有几张是在家里背景有个电视,有几张在路上背景有辆车,比把电视和车都标注了出来。但是当你在添加词条的时候,只添加了lora:小美,那么很有可能那个电视机,那辆车,也会被一起画出来。怎么办,这时候就必须在负面词条里面,加上车和电视机,那么很大概率就不会跑出来。
之前说过的hypernet和lora的区别。举个例子,你用的checkpoint大模型,是一个汉服动画风格的。而如果你用一样的小美的照片,各训练一个hypernet和一个lora,都叫做小美。你在词条里面添加hypernet 小美,那么生成的图片很有可能就很像你训练的时候的照片,背景有一点点汉服动画风格。如果你添加的是一个lora小美,那么你会得到一个汉服动画人物,脸长得有点像小美。这就是他们的区别。
4,其他的插件,训练,都是日新月异的,时不时可以去看看。但是AI画图基本上不是一次性生成一张成功的高清图片这样玩的,更有可能是随机生成图片,或者用现成的图片,然后在图片生成图片那里,然后修改一部分,有点像PS的用法。
页:
1
[2]