找回密码
 加入我们
搜索
      
查看: 43237|回复: 72

[显卡] 最近比较流行的AI瑟图制造机,但直到novelaileak才真正实用

  [复制链接]
发表于 2022-10-31 14:59 | 显示全部楼层 |阅读模式
本帖最后由 我輩樹である 于 2022-10-31 23:15 编辑

https://github.com/CompVis/stable-diffusion

它并没有界面,所以建议从带界面封装的开始:
https://github.com/AUTOMATIC1111/stable-diffusion-webui

安装的过程是极其简单的,当然了,阻碍你的还是国内对github的封锁。



如果你稍微了解过人工智能算法运行的流程,就知道模型必须要读入经过训练的参数(weights)才能运行(网络结构也稍有变化,下称模型)。

目前有几个模型可以使用:

1,stable-diffusion自己的模型,已经到了v1.4
https://huggingface.co/CompVis/stable-diffusion-v1-4

sd 1.5也出现了,有一段版权之争的小插曲,现在转到runway旗下发布:
https://huggingface.co/runwayml/stable-diffusion-v1-5

2,waifu-diffusion,目前v1.3
https://huggingface.co/hakurei/waifu-diffusion-v1-3

3,最强的novelai泄露模型,novelai在生产瑟图上遥遥领先其他人,它的泄露模型在AI小画家圈子里面是一段传说。这个大家自行检索吧,到处都有。
果然泄露的都是最强的。

目前stable diffusion因为不可言状的原因(danbooru啊sankaku啊什么的我完全不知道的领域啊),只有在二次元生成上独树一帜。其他风格的就只能先看看了。
发表于 2022-10-31 17:30 | 显示全部楼层
本帖最后由 Narumi 于 2022-10-31 18:13 编辑
我輩樹である 发表于 2022-10-31 17:28
其实最强的还是novelaileak,sd迭代到1.4,但它是general purpose模型,用的话要调一下sampling method。 ...


现在novelai本身的还在迭代,不知道什么时候还能再leak一次
哦顺便,把这个文档的链接补上去吧,想玩的话有这个excel很有用
https://docs.google.com/spreadsh ... /edit#gid=936298859

把我放到前排了我就补硬件相关几个心得和参考。
https://mirai.mamoe.net/topic/16 ... E8%BF%90%E8%A1%8C/2
教程之一↑
同样的预设(均无OC,过热降频,txt2img,内存均为32及以上,CPU无介入):
1024*1024 迭代40 CFG:11 单次生成1
Tesla P4 8G GDDR5 02:58
RTX3060 12G GDDR6(七彩虹mini OC)00:56
RTX3080 12G GDDR6X(电竞叛客 X3W)00:30
RTX3090 24G GDDR6X(七彩虹火神)00:19

tip1:由于显卡在调用全部CUDA进行运算,如果你打算一边AI生成一边挂着干别的需要用到显卡的东西,哪怕是看视频都会造成生成时间大幅延长。
tip2:这个算法调用到AI Tensor,所以有无AI Tensor生成时间会大相径庭,未阉割tensor core的图灵(20系),安培(30系),ada(40系)在运算方面有很大优势

评分

参与人数 1邪恶指数 +20 收起 理由
我輩樹である + 20

查看全部评分

 楼主| 发表于 2022-10-31 17:31 | 显示全部楼层
本帖最后由 我輩樹である 于 2022-10-31 23:15 编辑

共享一个元素法典:
https://docs.qq.com/doc/DWEpNdERNbnBRZWNL

在线瑟图生成器:
https://magic-generator.herokuapp.com/
发表于 2022-11-12 12:47 | 显示全部楼层
momoka 发表于 2022-10-31 18:17
我就问,A卡支持了么。为什么A卡卖的便宜,都没点数么

我跑过 必须在ubuntu一类的系统下跑 windows不行
发表于 2022-11-12 12:40 | 显示全部楼层
本帖最后由 cyt0d01 于 2022-11-12 12:41 编辑
cyt0d01 发表于 2022-10-31 18:06
下载了,安装了,运行了,1.9G搞不动了......阻挡我对科学探索的,是另一种科学 ...


自己挖的坑自己填.......已运行.....已ok.....


https://z4a.net/image/2SUFjL
https://z4a.net/image/2SUDFN



 楼主| 发表于 2022-11-6 13:56 | 显示全部楼层
xudi8092 发表于 2022-11-6 13:44
这种只能画二次元吗,能不能画英雄联盟皮肤那种

英雄联盟难道不是二次元么
发表于 2022-11-6 13:44 来自手机 | 显示全部楼层
这种只能画二次元吗,能不能画英雄联盟皮肤那种
发表于 2022-11-6 13:24 | 显示全部楼层
厉害啊, 感谢各位大佬分享
 楼主| 发表于 2022-11-6 13:23 | 显示全部楼层
刚才profiling了下,这软件没有充分优化。要手动改不少代码。
发表于 2022-11-6 13:20 来自手机 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
发表于 2022-11-6 12:59 来自手机 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
发表于 2022-11-6 12:56 来自手机 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
发表于 2022-11-6 12:53 | 显示全部楼层
Srx42 发表于 2022-11-1 13:18
已经最新了还安了xformer,和3090比单图没显著提高,500*500还是4秒多一张

https://www.bilibili.com/video/av304806995/  朋友实测4090速度变成3倍了,再试试
发表于 2022-11-4 11:21 来自手机 | 显示全部楼层
houyuzhou 发表于 2022-11-4 11:00
momoko模型也不错 记得试试。
30和40两代卡 命运真的是不同啊。

我感觉不是30和40的差别,而是12G和24G的差别
发表于 2022-11-4 11:03 | 显示全部楼层
原来高大上的人工智能就是做这个啊,我以为都是搞科研的呢
发表于 2022-11-4 11:01 | 显示全部楼层
QQ图片20221104110051.jpg
发表于 2022-11-4 11:00 | 显示全部楼层
momoko模型也不错 记得试试。
30和40两代卡 命运真的是不同啊。
发表于 2022-11-4 10:51 | 显示全部楼层
无图无真相……
额 上面这句话真老
现在都是图都是生成的了~
发表于 2022-11-2 09:39 来自手机 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
发表于 2022-11-1 17:13 来自手机 | 显示全部楼层
让我想起了这张图应该就是这么搞的吧 A2AD113E-77C0-4CC4-A312-AA760156BFFB.jpeg
发表于 2022-11-1 16:58 | 显示全部楼层
这,好似,有点意思。
发表于 2022-11-1 16:57 | 显示全部楼层
Srx42 发表于 2022-11-1 13:18
已经最新了还安了xformer,和3090比单图没显著提高,500*500还是4秒多一张

cudnn替换成8.6, 用xformer的情况下我这是3.5s@50steps来着
发表于 2022-11-1 16:10 | 显示全部楼层
OstCollector 发表于 2022-10-31 23:47
速度咋样,6900xt能到3090的多少?

6950XT,大概6.5it/s,3090多少不**楚,我自己的2070S大概是4.5
发表于 2022-11-1 13:18 来自手机 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
发表于 2022-11-1 13:03 | 显示全部楼层
我輩樹である 发表于 2022-11-1 11:44
\venv\Lib\site-packages\torch\lib 这里。

还是不要直接替换了,用pip装比较好。

感谢,我是修改根目录下的launch.py,第108行把pytorch和torchvision的版本都改成最新的,再运行程序让它重新获取最新版本,看样子能正常运行。
 楼主| 发表于 2022-11-1 11:44 | 显示全部楼层
本帖最后由 我輩樹である 于 2022-11-1 11:48 编辑
bei1991 发表于 2022-11-1 11:09
cudnn是跟着pytorch一起安装的吗?我看到cudnn文件夹是在torch文件夹下面的


\venv\Lib\site-packages\torch\lib 这里。

还是不要直接替换了,用pip装比较好。

pip3 install torch torchvision torchaudio --extra-index-url https://download.pytorch.org/whl/cu117

在这之前还要先create一个虚拟环境。

我是用conda装的。可以在外面建好conda环境直接复制改名成venv,看哪种方式不卡网络。
发表于 2022-11-1 11:39 | 显示全部楼层
bei1991 发表于 2022-11-1 11:09
cudnn是跟着pytorch一起安装的吗?我看到cudnn文件夹是在torch文件夹下面的

正常操作是作为依赖一起安装的, 但不妨碍大版本之间有兼容性, 可以直接替换
发表于 2022-11-1 11:34 | 显示全部楼层
另外stable-diffusion和disco-diffusion都支持动画甚至3D制作,需要生成关键帧,估计又是个高计算量的活,我这里纯拿cpu抗的没敢试。
发表于 2022-11-1 11:34 | 显示全部楼层
NovelAI那个,自己搭出来效果还是不如付费,而且付费价格说高也不高,还是用付费的吧……
发表于 2022-11-1 11:32 | 显示全部楼层
问其他模型的看看这个
https://rentry.org/sdmodels

另外感觉主要是负面提示词的功劳,其他40%是随机种子的锅,网图浏览的时候收集好种子至关重要。
参考网站:lexica.art
发表于 2022-11-1 11:13 | 显示全部楼层
我輩樹である 发表于 2022-11-1 09:49
backend是torch,肯定是支持的。要改下代码,parallel一下模型。而且transformer模型,多卡效率不高,而 ...

8卡机器开8个进程的话跟监控室老大爷一样,感觉会忙不过来

还是单卡机器玩玩吧
发表于 2022-11-1 11:09 | 显示全部楼层
zhuifeng88 发表于 2022-11-1 10:28
cudnn替换一下, 版本替换成8.6就比3090快很多了

cudnn是跟着pytorch一起安装的吗?我看到cudnn文件夹是在torch文件夹下面的
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-6-29 06:08 , Processed in 0.019527 second(s), 13 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表