haoyumena
发表于 2022-10-31 18:44
momoka 发表于 2022-10-31 18:17
我就问,A卡支持了么。为什么A卡卖的便宜,都没点数么
支持,不过要在LINUX环境配置,有WEBUI界面,我是在UBUNTU里面弄的,网上有详细教程。算力还可以
Srx42
发表于 2022-10-31 19:31
player_eds
发表于 2022-10-31 22:38
感觉4g内存都不配画图
OstCollector
发表于 2022-10-31 23:47
haoyumena 发表于 2022-10-31 18:44
支持,不过要在LINUX环境配置,有WEBUI界面,我是在UBUNTU里面弄的,网上有详细教程。算力还可以 ...
速度咋样,6900xt能到3090的多少?
gartour
发表于 2022-11-1 00:06
抱歉,您已收藏,请勿重复收藏
声色茶马
发表于 2022-11-1 07:22
下一步是动画制造机,再下一步是VR电影制造机……颤抖吧人类,准备迎接被AI统治的年代吧。[恶魔]
苏力粟
发表于 2022-11-1 08:48
我玩了这个一周多,一直想模拟一个高达(机器人)和孙悟空巅峰对决画面,刚开始的时候牛头不对马嘴的,现在训练AI一段时间之后,有点哪个味道了,克鲁苏味少了很多,还在研究中,挺有意思。
重庆森林
发表于 2022-11-1 08:57
为了这个我专门上了块M40 24g,速度只有30707的1/4
声色茶马
发表于 2022-11-1 09:08
苏力粟 发表于 2022-11-1 08:48
我玩了这个一周多,一直想模拟一个高达(机器人)和孙悟空巅峰对决画面,刚开始的时候牛头不对马嘴的,现在 ...
这事儿的乐趣是不是就和较小盆友学习一样?气得你血压飙破天,但最后他居然会了,于是还挺有成就感。[偷笑]
bei1991
发表于 2022-11-1 09:26
我最近在用A100和A6000跑这个,不支持多卡有些遗憾,像deepfacelab什么的都是能多卡训练的
sun1a2b3c4d
发表于 2022-11-1 09:46
我輩樹である 发表于 2022-10-31 15:31
我是正人君子一般不会分享这种东西,主要还是报以科学的目的。
请继续
我輩樹である
发表于 2022-11-1 09:49
bei1991 发表于 2022-11-1 09:26
我最近在用A100和A6000跑这个,不支持多卡有些遗憾,像deepfacelab什么的都是能多卡训练的 ...
backend是torch,肯定是支持的。要改下代码,parallel一下模型。而且transformer模型,多卡效率不高,而且主要还是预测流程,没必要支持多卡,开多个进程就行了。
Srx42
发表于 2022-11-1 10:26
zhuifeng88
发表于 2022-11-1 10:28
Srx42 发表于 2022-11-1 10:26
试了下4090没比3090快,还更慢了
cudnn替换一下, 版本替换成8.6就比3090快很多了
bei1991
发表于 2022-11-1 11:09
zhuifeng88 发表于 2022-11-1 10:28
cudnn替换一下, 版本替换成8.6就比3090快很多了
cudnn是跟着pytorch一起安装的吗?我看到cudnn文件夹是在torch文件夹下面的
bei1991
发表于 2022-11-1 11:13
我輩樹である 发表于 2022-11-1 09:49
backend是torch,肯定是支持的。要改下代码,parallel一下模型。而且transformer模型,多卡效率不高,而 ...
8卡机器开8个进程的话跟监控室老大爷一样,感觉会忙不过来[晕倒]
还是单卡机器玩玩吧
fudaming
发表于 2022-11-1 11:32
问其他模型的看看这个
https://rentry.org/sdmodels
另外感觉主要是负面提示词的功劳,其他40%是随机种子的锅,网图浏览的时候收集好种子至关重要。
参考网站:lexica.art
谎言之神Cyric
发表于 2022-11-1 11:34
NovelAI那个,自己搭出来效果还是不如付费,而且付费价格说高也不高,还是用付费的吧……
fudaming
发表于 2022-11-1 11:34
另外stable-diffusion和disco-diffusion都支持动画甚至3D制作,需要生成关键帧,估计又是个高计算量的活,我这里纯拿cpu抗的没敢试。
zhuifeng88
发表于 2022-11-1 11:39
bei1991 发表于 2022-11-1 11:09
cudnn是跟着pytorch一起安装的吗?我看到cudnn文件夹是在torch文件夹下面的
正常操作是作为依赖一起安装的, 但不妨碍大版本之间有兼容性, 可以直接替换
我輩樹である
发表于 2022-11-1 11:44
本帖最后由 我輩樹である 于 2022-11-1 11:48 编辑
bei1991 发表于 2022-11-1 11:09
cudnn是跟着pytorch一起安装的吗?我看到cudnn文件夹是在torch文件夹下面的
\venv\Lib\site-packages\torch\lib 这里。
还是不要直接替换了,用pip装比较好。
pip3 install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117
在这之前还要先create一个虚拟环境。
我是用conda装的。可以在外面建好conda环境直接复制改名成venv,看哪种方式不卡网络。
bei1991
发表于 2022-11-1 13:03
我輩樹である 发表于 2022-11-1 11:44
\venv\Lib\site-packages\torch\lib 这里。
还是不要直接替换了,用pip装比较好。
感谢,我是修改根目录下的launch.py,第108行把pytorch和torchvision的版本都改成最新的,再运行程序让它重新获取最新版本,看样子能正常运行。
Srx42
发表于 2022-11-1 13:18
haoyumena
发表于 2022-11-1 16:10
OstCollector 发表于 2022-10-31 23:47
速度咋样,6900xt能到3090的多少?
6950XT,大概6.5it/s,3090多少不**楚,我自己的2070S大概是4.5
zhuifeng88
发表于 2022-11-1 16:57
Srx42 发表于 2022-11-1 13:18
已经最新了还安了xformer,和3090比单图没显著提高,500*500还是4秒多一张
cudnn替换成8.6, 用xformer的情况下我这是3.5s@50steps来着
反IE之號Saber
发表于 2022-11-1 16:58
这,好似,有点意思。
house22bb
发表于 2022-11-1 17:13
让我想起了这张图应该就是这么搞的吧
[狂笑]
Srx42
发表于 2022-11-2 09:39
huihuige
发表于 2022-11-4 10:51
无图无真相……
额 上面这句话真老
现在都是图都是生成的了~
houyuzhou
发表于 2022-11-4 11:00
momoko模型也不错 记得试试。
[偷笑]30和40两代卡 命运真的是不同啊。