haoyumena 发表于 2022-10-31 18:44

momoka 发表于 2022-10-31 18:17
我就问,A卡支持了么。为什么A卡卖的便宜,都没点数么

支持,不过要在LINUX环境配置,有WEBUI界面,我是在UBUNTU里面弄的,网上有详细教程。算力还可以

Srx42 发表于 2022-10-31 19:31

player_eds 发表于 2022-10-31 22:38

感觉4g内存都不配画图

OstCollector 发表于 2022-10-31 23:47

haoyumena 发表于 2022-10-31 18:44
支持,不过要在LINUX环境配置,有WEBUI界面,我是在UBUNTU里面弄的,网上有详细教程。算力还可以 ...

速度咋样,6900xt能到3090的多少?

gartour 发表于 2022-11-1 00:06

抱歉,您已收藏,请勿重复收藏

声色茶马 发表于 2022-11-1 07:22

下一步是动画制造机,再下一步是VR电影制造机……颤抖吧人类,准备迎接被AI统治的年代吧。[恶魔]

苏力粟 发表于 2022-11-1 08:48

我玩了这个一周多,一直想模拟一个高达(机器人)和孙悟空巅峰对决画面,刚开始的时候牛头不对马嘴的,现在训练AI一段时间之后,有点哪个味道了,克鲁苏味少了很多,还在研究中,挺有意思。

重庆森林 发表于 2022-11-1 08:57

为了这个我专门上了块M40 24g,速度只有30707的1/4

声色茶马 发表于 2022-11-1 09:08

苏力粟 发表于 2022-11-1 08:48
我玩了这个一周多,一直想模拟一个高达(机器人)和孙悟空巅峰对决画面,刚开始的时候牛头不对马嘴的,现在 ...

这事儿的乐趣是不是就和较小盆友学习一样?气得你血压飙破天,但最后他居然会了,于是还挺有成就感。[偷笑]

bei1991 发表于 2022-11-1 09:26

我最近在用A100和A6000跑这个,不支持多卡有些遗憾,像deepfacelab什么的都是能多卡训练的

sun1a2b3c4d 发表于 2022-11-1 09:46

我輩樹である 发表于 2022-10-31 15:31
我是正人君子一般不会分享这种东西,主要还是报以科学的目的。

请继续

我輩樹である 发表于 2022-11-1 09:49

bei1991 发表于 2022-11-1 09:26
我最近在用A100和A6000跑这个,不支持多卡有些遗憾,像deepfacelab什么的都是能多卡训练的 ...

backend是torch,肯定是支持的。要改下代码,parallel一下模型。而且transformer模型,多卡效率不高,而且主要还是预测流程,没必要支持多卡,开多个进程就行了。

Srx42 发表于 2022-11-1 10:26

zhuifeng88 发表于 2022-11-1 10:28

Srx42 发表于 2022-11-1 10:26
试了下4090没比3090快,还更慢了

cudnn替换一下, 版本替换成8.6就比3090快很多了

bei1991 发表于 2022-11-1 11:09

zhuifeng88 发表于 2022-11-1 10:28
cudnn替换一下, 版本替换成8.6就比3090快很多了

cudnn是跟着pytorch一起安装的吗?我看到cudnn文件夹是在torch文件夹下面的

bei1991 发表于 2022-11-1 11:13

我輩樹である 发表于 2022-11-1 09:49
backend是torch,肯定是支持的。要改下代码,parallel一下模型。而且transformer模型,多卡效率不高,而 ...

8卡机器开8个进程的话跟监控室老大爷一样,感觉会忙不过来[晕倒]

还是单卡机器玩玩吧

fudaming 发表于 2022-11-1 11:32

问其他模型的看看这个
https://rentry.org/sdmodels

另外感觉主要是负面提示词的功劳,其他40%是随机种子的锅,网图浏览的时候收集好种子至关重要。
参考网站:lexica.art

谎言之神Cyric 发表于 2022-11-1 11:34

NovelAI那个,自己搭出来效果还是不如付费,而且付费价格说高也不高,还是用付费的吧……

fudaming 发表于 2022-11-1 11:34

另外stable-diffusion和disco-diffusion都支持动画甚至3D制作,需要生成关键帧,估计又是个高计算量的活,我这里纯拿cpu抗的没敢试。

zhuifeng88 发表于 2022-11-1 11:39

bei1991 发表于 2022-11-1 11:09
cudnn是跟着pytorch一起安装的吗?我看到cudnn文件夹是在torch文件夹下面的

正常操作是作为依赖一起安装的, 但不妨碍大版本之间有兼容性, 可以直接替换

我輩樹である 发表于 2022-11-1 11:44

本帖最后由 我輩樹である 于 2022-11-1 11:48 编辑

bei1991 发表于 2022-11-1 11:09
cudnn是跟着pytorch一起安装的吗?我看到cudnn文件夹是在torch文件夹下面的

\venv\Lib\site-packages\torch\lib 这里。

还是不要直接替换了,用pip装比较好。

pip3 install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117

在这之前还要先create一个虚拟环境。

我是用conda装的。可以在外面建好conda环境直接复制改名成venv,看哪种方式不卡网络。

bei1991 发表于 2022-11-1 13:03

我輩樹である 发表于 2022-11-1 11:44
\venv\Lib\site-packages\torch\lib 这里。

还是不要直接替换了,用pip装比较好。


感谢,我是修改根目录下的launch.py,第108行把pytorch和torchvision的版本都改成最新的,再运行程序让它重新获取最新版本,看样子能正常运行。

Srx42 发表于 2022-11-1 13:18

haoyumena 发表于 2022-11-1 16:10

OstCollector 发表于 2022-10-31 23:47
速度咋样,6900xt能到3090的多少?

6950XT,大概6.5it/s,3090多少不**楚,我自己的2070S大概是4.5

zhuifeng88 发表于 2022-11-1 16:57

Srx42 发表于 2022-11-1 13:18
已经最新了还安了xformer,和3090比单图没显著提高,500*500还是4秒多一张

cudnn替换成8.6, 用xformer的情况下我这是3.5s@50steps来着

反IE之號Saber 发表于 2022-11-1 16:58

这,好似,有点意思。

house22bb 发表于 2022-11-1 17:13

让我想起了这张图应该就是这么搞的吧
[狂笑]

Srx42 发表于 2022-11-2 09:39

huihuige 发表于 2022-11-4 10:51

无图无真相……
额 上面这句话真老
现在都是图都是生成的了~

houyuzhou 发表于 2022-11-4 11:00

momoko模型也不错 记得试试。
[偷笑]30和40两代卡 命运真的是不同啊。
页: 1 [2] 3
查看完整版本: 最近比较流行的AI瑟图制造机,但直到novelaileak才真正实用