Chiphell - 分享与交流用户体验

标题: AI作画版本答案,可以姿态干预的ControlNet动漫版手把手教程 [打印本页]

作者: 我輩樹である    时间: 2023-2-17 16:17
标题: AI作画版本答案,可以姿态干预的ControlNet动漫版手把手教程
本帖最后由 我輩樹である 于 2023-2-24 02:16 编辑

为显卡找点事,手把手教程教你用当前版本答案ControlNet,有写实版和二次元萌妹版。
零基础,复制粘贴纯享版哦。

写实:
(, 下载次数: 102)

二次元:
(, 下载次数: 95)
(, 下载次数: 93)

下面是markdown代码,建议用markdown编辑器查看。
因为当前ControlNet正在活跃更新中,更新频繁,本教程在2月17日的版本上验证了,后续有更新再说吧。


  1. # 从零开始安装动漫风格的ControlNet

  2. 本教程基于:

  3. ```
  4. https://github.com/lllyasviel/ControlNet/discussions/12
  5. ```

  6. 感谢作者

  7. ## 前置软件安装

  8. # Anaconda

  9. Anaconda是一种包管理器,并提供了虚拟环境和版本解算器用于隔离和部署。

  10. * 安装方式

  11. 使用下面的链接下载并安装:

  12. ```
  13. https://repo.anaconda.com/archive/Anaconda3-2022.10-Windows-x86_64.exe
  14. ```

  15. * 安装检查

  16. 打开菜单中的```Anaconda Powershell Prompt (anaconda3)```。

  17. 此时命令行前面会出现一个```(base)```的字样代表Anaconda安装成功,代表你当前处于base虚拟环境之下。

  18. * 添加Anaconda的国内源(可选)

  19. 完成Anaconda的安装后,还需通过执行下面的命令添加Anaconda的国内镜像源(清华):

  20. ```
  21. conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/free/

  22. conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/

  23. conda config --add channels https://mirrors.tuna.tsinghua.edu.cn/anaconda/cloud/conda-forge/
  24. ```

  25. 当从Anaconda下载的时候,会优先搜索上面添加的国内源服务器,保证下载速度。

  26. 可以通过```conda config --show channels```命令查看添加是否成功。

  27. # Git

  28. Git是一种版本管理工具,在本例中多用于从远程的仓库获取代码和模型数据。

  29. * 安装方式

  30. 打开命令行工具,使用下面的命令安装:

  31. ```
  32. winget install --id Git.Git -e --source winget
  33. ```

  34. * 替代安装方式

  35. 可以通过下列链接下载直接安装:

  36. ```
  37. https://github.com/git-for-windows/git/releases/download/v2.39.2.windows.1/Git-2.39.2-64-bit.exe
  38. ```

  39. * 安装检查

  40. 安装完成后,关闭并重新打开命令行,使用下列命令检查是否安装成功:

  41. ```
  42. git --version
  43. ```

  44. ## ControlNet代码下载与环境构建

  45. ControlNet代码发布在下列地址:

  46. ```
  47. https://github.com/lllyasviel/ControlNet
  48. ```

  49. 其官方模型发布在下列地址:

  50. ```
  51. https://huggingface.co/lllyasviel/ControlNet/tree/main
  52. ```

  53. # 下载代码并构建运行环境

  54. 打开菜单中的```Anaconda Powershell Prompt (anaconda3)```

  55. 使用```cd```命令转移到你希望放置ControlNet的目录。

  56. 全功能的ControlNet及其模型需要100GB左右的空间,请注意规划存储空间。

  57. 使用下面的命令获取ControlNet代码:

  58. ```
  59. git clone https://github.com/lllyasviel/ControlNet.git
  60. ```

  61. 完成后,会在当前目录下创建一个ControlNet目录。

  62. 使用```cd ControlNet```命令进入该目录。

  63. 为了规避因为网络原因导致的构建失败问题,使用文本编辑器打开目录下的environment.yaml文件。

  64. 在```- pip:```下面添加代码```- -i https://pypi.tuna.tsinghua.edu.cn/simple```

  65. 注意缩进对齐,完成后应如下所示(添加的项目应该与其他子项保持相同缩进):

  66. ```
  67.   - pip:
  68.      - -i https://pypi.tuna.tsinghua.edu.cn/simple
  69. ```

  70. 保存退出。

  71. * 构建运行环境

  72. 在```(base)```前缀下,使用下列的命令构建环境(如果希望激活xformers,请参考115楼):

  73. ```
  74. conda env create -f environment.yaml
  75. ```

  76. 构建需要一定的时间,且还是会有构建失败的情况发生。

  77. 无论是哪种情况,请先使用```conda activate control```命令尝试激活刚才创建的环境。

  78. * 构建失败

  79. 构建失败原因一般是pip工具无法正常访问软件仓库,pip工具是python自带的包管理器,本例中运行环境的构建一部分由conda提供源,一部分由pip提供源。

  80. 这个时候我们需要为pip工具添加国内镜像源服务器。

  81. 首先使用```python --version```和```pip --version```命令确保python及pip已经安装成功。

  82. python版本应在3.8以上,pip版本应在20以上。

  83. 接下来使用下面两行代码为pip添加国内源(清华):

  84. ```
  85. pip config --global set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

  86. pip config --global set install.trusted-host tuna.tsinghua.edu.cn
  87. ```

  88. 添加成功后,命令行会反馈配置写入到一个pip.ini文件中,可以打开该文件检查是否添加成功。

  89. 或者使用```pip config list```指令查看。

  90. * 重新构建环境

  91. 虽然构建失败,但虚拟环境已经创建,且部分环境已经构建成功,此时我们仅需构建失败的部分。

  92. 确保你处于control虚拟环境之下(即命令行前缀为```(control)```)

  93. 使用下面的命令继续构建环境:

  94. ```
  95. conda env update -f environment.yaml
  96. ```

  97. 完成构建。

  98. # 下载官方模型

  99. 使用下面的命令激活lfs组件用于下载大体积文件:

  100. ```
  101. git lfs install
  102. ```

  103. 进入一个空闲目录中,使用下面的命令下载模型:

  104. ```
  105. git clone https://huggingface.co/lllyasviel/ControlNet
  106. ```

  107. 请确保网络通畅,该命令会下载90GB左右的模型文件。hugface在国内下载速度也很快,经测试带宽基本可以跑满。

  108. 如果下载速度过慢,请参考最下面的troubleshooting部分。

  109. 下载过程中命令行界面的反馈比较少,可以通过任务管理器网络通信监控下载状态。

  110. 如果你并不需要全功能的ControlNet,仅需挑选部分模型下载即可,模型的用途和位置可参考:

  111. ```
  112. https://huggingface.co/lllyasviel/ControlNet
  113. ```

  114. # 合并代码和模型

  115. 下载的代码和模型具有完全相同的目录结构,直接合并即可。

  116. # 试运行

  117. 在本例中,我们仅关心ControlNet的根据姿态生成功能,即```pose2image```。

  118. 确保你有一张显存大于9GB的Nvidia显卡(如果你的显卡显存小于9GB,或者需要一次性生成多张图片,请见下文中的代码修改部分)

  119. 确保你位于```(control)```虚拟环境之下,并位于ControlNet目录中。

  120. 使用下面的命令运行ControlNet的pose2image功能。

  121. ```
  122. python gradio_pose2image.py
  123. ```

  124. 等待初始化完成后,命令行将回馈一个网址,将其中的```0.0.0.0```改为```127.0.0.1```并使用浏览器打开。

  125. enjoy。

  126. * 注意:可以使用```Ctrl + C```指令退出。

  127. ## 还没结束,大奶二次元萌妹呢

  128. 为了生成大奶二次元萌妹,需要使用社区模型。

  129. 首先,下载下列两个模型:

  130. ```
  131. https://huggingface.co/Linaqruf/anything-v3.0/resolve/main/anything-v3-full.safetensors

  132. https://huggingface.co/runwayml/stable-diffusion-v1-5/resolve/main/v1-5-pruned.ckpt
  133. ```

  134. 下载完毕后,将它们移动到```ControlNet/models```目录中。

  135. 确保你位于```(control)```虚拟环境之下,并位于ControlNet目录中。

  136. 使用下列命令迁移生成基于上述两个模型的新模型:

  137. ```
  138. python tool_transfer_control.py
  139. ```

  140. 运行结束后,会在models目录下生成一个新的模型```control_any3_openpose.pth```,这就是我们需要的。

  141. 此外,该模型也可以直接在下列地址下载:

  142. ```
  143. https://huggingface.co/toyxyz/Control_any3/tree/main
  144. ```

  145. # 编辑代码让其调用新模型

  146. 打开ControlNet目录下的```gradio_pose2image.py```文件。

  147. 修改代码有两处,如下:

  148. * 1,在```from share import *```的下面添加:

  149. ```
  150. from cldm.hack import hack_everything
  151. hack_everything(clip_skip=2)
  152. ```

  153. * 2,在```model = create_model('./models/cldm_v15.yaml').cpu()```下面修改:

  154. ```
  155. # 上面是写实模型,下面是动漫模型,可以通过追加或删除代码前端的 # 符号调整
  156. # model.load_state_dict(load_state_dict('./models/control_sd15_openpose.pth', location='cuda'))
  157. model.load_state_dict(load_state_dict('./models/control_any3_openpose.pth', location='cpu'))
  158. ```

  159. 顺便可以把最后一行的```0.0.0.0```改为```127.0.0.1```。

  160. * 开启低显存模式

  161. 如果你的显卡显存小于9GB,或者你需要一次性生成多张图片,请打开ControlNet根目录下的config.py文件,修改如下:

  162. ```
  163. save_memory = True
  164. ```

  165. 保存退出。

  166. # 生成大奶萌妹

  167. 确保你位于```(control)```虚拟环境之下,并位于ControlNet目录中。

  168. 再次使用```python gradio_pose2image.py```运行,同样的指令即可生成大奶萌妹。

  169. 对于姿势的干预,你需要提供一张姿态图,建议使用下面的两个网站摆好姿势,下载图片,然后再去生成。

  170. 同时也可以接受prompt词的指导。

  171. ```
  172. 二次元
  173. https://www.vrmwebpose.app/

  174. 写实
  175. https://webapp.magicposer.com/
  176. ```

  177. enjoy。
复制代码


(, 下载次数: 87)

troubleshooting:

如果出现ProxyError的情况,请关闭你的代理。
代理要分情况启用,有的时候可以用来加速,有的会因为验证的原因不让用。请多加尝试。

如果下载模型速度很慢的话,可以打开 https://huggingface.co/lllyasviel/ControlNet/tree/main 这个网址,进入各个目录,lfs标志后面有个向下的箭头,就是模型的地址,可以用迅雷之类的下载工具下,最后放到相对应的位置即可。虽然麻烦了点,但和用git命令下没区别。

作者: 上帝也生病    时间: 2023-2-17 16:21
提示: 作者被禁止或删除 内容自动屏蔽
作者: yangzi123aaa20    时间: 2023-2-17 16:23
上帝也生病 发表于 2023-2-17 16:21
https://www.vrmwebpose.app/这个网站的摆动作太累了,而且感觉关节有点少

为什么不试试一路神全家桶或者定制女仆呢
作者: 我永远喜欢框框    时间: 2023-2-17 16:27
提示: 作者被禁止或删除 内容自动屏蔽
作者: T.JOHN    时间: 2023-2-17 16:29
Nice boat,树导巨作我来顶顶,我就不重复轮子了
其实discuz有markdown插件,毕竟本质上大家都是html5
作者: xzzfft    时间: 2023-2-17 16:42
2张8g的2070s有能用吗?居然要9g啊啊啊
作者: 我輩樹である    时间: 2023-2-17 16:44
xzzfft 发表于 2023-2-17 16:42
2张8g的2070s有能用吗?居然要9g啊啊啊

低显存可以跑,已经更新了。
作者: 我輩樹である    时间: 2023-2-17 16:45
我永远喜欢框框 发表于 2023-2-17 16:27
感觉像是liunx?

windows版本的,linux版本是差不多的,anaconda改为linux版本即可。
作者: mypchas6fans    时间: 2023-2-17 17:18
mark了,我也有类似6楼的问题,堆几块tesla P4有用么
作者: 我輩樹である    时间: 2023-2-17 17:19
mypchas6fans 发表于 2023-2-17 17:18
mark了,我也有类似6楼的问题,堆几块tesla P4有用么

低显存教程已经更新启用方式,多卡目前没有用,需要手动修改代码。
作者: 碱面齐子    时间: 2023-2-17 17:24
3070Ti可以跑嘛,可以的话晚上回家整起来
作者: airbeta    时间: 2023-2-17 17:28
感谢分享
作者: m4a1chbb    时间: 2023-2-17 17:36
马克一下,有空试试各种阵营软件的区别。
作者: 秦南瓜    时间: 2023-2-17 17:42
马克。太酷了
作者: vzvxvcvv    时间: 2023-2-17 17:45
插眼支持。
作者: HaYuanJi    时间: 2023-2-17 18:05
提示: 作者被禁止或删除 内容自动屏蔽
作者: xzzfft    时间: 2023-2-17 18:38
树导,ControlNet软件下载完,目录下没有environment.yaml文件呢,everything也没搜索到。。
作者: 我輩樹である    时间: 2023-2-17 18:55
xzzfft 发表于 2023-2-17 18:38
树导,ControlNet软件下载完,目录下没有environment.yaml文件呢,everything也没搜索到。。 ...


抱歉,那个地方写错了,用这个下载代码:

git clone https://github.com/lllyasviel/ControlNet.git

原文的是下载模型的,已经下载了的话后面就不用再下了。

已经修改了。
作者: manysu    时间: 2023-2-17 19:10
请问从3060开始到4090各个级别的显卡,作画性能方面有多大的提升幅度?
作者: manysu    时间: 2023-2-17 19:12
各种模型好多啊,看花了眼
好像chilloutmix_NiPrunedFp32之类的,还有LORA啥的。
作者: abbot    时间: 2023-2-17 19:28
6 马克一下
作者: 碌木    时间: 2023-2-17 19:38
看完当学会了
作者: abbot    时间: 2023-2-17 19:47
(, 下载次数: 76)
安装阶段就遇到问题了。。。这个是什么原因呢?
作者: 我輩樹である    时间: 2023-2-17 19:49
abbot 发表于 2023-2-17 19:47
安装阶段就遇到问题了。。。这个是什么原因呢?

如果遇到这个情况,就直接下载安装吧,是一样的。

https://github.com/git-for-windo ... t-2.39.2-64-bit.exe
作者: 木子滴血    时间: 2023-2-17 19:50
稍微再给他一点迭代时间
我倒是很感兴趣 多人火柴人 的效果
作者: loughlion    时间: 2023-2-17 19:51
好长,看起来不容易啊
作者: xzzfft    时间: 2023-2-17 20:06
树导  求推荐个Markdown本地软件。
作者: xzzfft    时间: 2023-2-17 20:49
127.0.0.1不是本地的吗  访问好慢。。还要转圈圈
作者: 我輩樹である    时间: 2023-2-17 20:51
xzzfft 发表于 2023-2-17 20:06
树导  求推荐个Markdown本地软件。

我用的pycharm自带的插件。
作者: 我輩樹である    时间: 2023-2-17 20:52
xzzfft 发表于 2023-2-17 20:49
127.0.0.1不是本地的吗  访问好慢。。还要转圈圈

我这很快啊。
作者: T.JOHN    时间: 2023-2-17 20:54
xzzfft 发表于 2023-2-17 20:06
树导  求推荐个Markdown本地软件。

Vs code markdown preview enhanced
作者: liangxy    时间: 2023-2-17 21:04
请问大佬有什么办法能较好分辨ai画图和真人呢?
作者: abbot    时间: 2023-2-17 21:43
我輩樹である 发表于 2023-2-17 19:49
如果遇到这个情况,就直接下载安装吧,是一样的。

https://github.com/git-for-windows/git/releases/do ...

(, 下载次数: 54)
我又来了。。。。
运行conda env create -f environment.yaml 就提示这个。。。
作者: 我輩樹である    时间: 2023-2-17 21:55
abbot 发表于 2023-2-17 21:43
我又来了。。。。
运行conda env create -f environment.yaml 就提示这个。。。

输入conda info,看看。
作者: 我輩樹である    时间: 2023-2-17 21:56
liangxy 发表于 2023-2-17 21:04
请问大佬有什么办法能较好分辨ai画图和真人呢?

看的多就能分辨了,区别还是蛮明显。简单的说就是风格太单一。
作者: xzzfft    时间: 2023-2-17 21:56
T.JOHN 发表于 2023-2-17 20:54
Vs code markdown preview enhanced

感谢T导
作者: xzzfft    时间: 2023-2-17 21:57
我輩樹である 发表于 2023-2-17 20:52
我这很快啊。


额 居然是关代理影响了。。重开代理秒开
作者: tanrenye    时间: 2023-2-17 22:01
有docker版本吗,这个好麻烦啊
作者: tangex    时间: 2023-2-17 22:07
abbot 发表于 2023-2-17 21:43
我又来了。。。。
运行conda env create -f environment.yaml 就提示这个。。。

注意缩进对齐,完成后应如下所示:

```
  - pip:
    - -i https://pypi.tuna.tsinghua.edu.cn/simple
作者: abbot    时间: 2023-2-17 22:09
我輩樹である 发表于 2023-2-17 21:55
输入conda info,看看。

(, 下载次数: 61)
作者: abbot    时间: 2023-2-17 22:09
tangex 发表于 2023-2-17 22:07
注意缩进对齐,完成后应如下所示:

```

(, 下载次数: 62)
是这个错了么?
作者: tangex    时间: 2023-2-17 22:12
本帖最后由 tangex 于 2023-2-17 22:14 编辑
abbot 发表于 2023-2-17 22:09
是这个错了么?


注意缩进对齐 我刚刚跟你一样这个位置出错

(, 下载次数: 54)
作者: 我輩樹である    时间: 2023-2-17 22:13
abbot 发表于 2023-2-17 22:09
是这个错了么?

没看出哪里有问题。

用 conda remove -n control --all 删掉虚拟环境再试试。有代理的话先关闭代理。
作者: abbot    时间: 2023-2-17 22:26
tangex 发表于 2023-2-17 22:12
注意缩进对齐 我刚刚跟你一样这个位置出错

我蒙了。。。缩来缩去我已经不知道原始的格式是啥了。。。 environment文件能传一个上来看下么
作者: 我輩樹である    时间: 2023-2-17 22:37
abbot 发表于 2023-2-17 22:26
我蒙了。。。缩来缩去我已经不知道原始的格式是啥了。。。 environment文件能传一个上来看下么 ...


应该是我教程中少了个空格,其实就是和下面的子项对齐。

  1. name: controlnet
  2. channels:
  3.   - pytorch
  4.   - defaults
  5. dependencies:
  6.   - python=3.8.5
  7.   - pip=20.3
  8.   - cudatoolkit=11.3
  9.   - pytorch=1.12.1
  10.   - torchvision=0.13.1
  11.   - numpy=1.23.1
  12.   - pip:
  13.       - -i https://pypi.tuna.tsinghua.edu.cn/simple
  14.       - gradio==3.16.2
  15.       - albumentations==1.3.0
  16.       - opencv-contrib-python==4.3.0.36
  17.       - imageio==2.9.0
  18.       - imageio-ffmpeg==0.4.2
  19.       - pytorch-lightning==1.5.0
  20.       - omegaconf==2.1.1
  21.       - test-tube>=0.7.5
  22.       - streamlit==1.12.1
  23.       - einops==0.3.0
  24.       - transformers==4.19.2
  25.       - webdataset==0.2.5
  26.       - kornia==0.6
  27.       - open_clip_torch==2.0.2
  28.       - invisible-watermark>=0.1.5
  29.       - streamlit-drawable-canvas==0.8.0
  30.       - torchmetrics==0.6.0
  31.       - timm==0.6.12
  32.       - addict==2.4.0
  33.       - yapf==0.32.0
  34.       - prettytable==3.6.0
  35.       - safetensors==0.2.7
  36.       - basicsr==1.4.2
复制代码

作者: 我輩樹である    时间: 2023-2-17 22:44
tanrenye 发表于 2023-2-17 22:01
有docker版本吗,这个好麻烦啊

可以尝试做一个。
作者: Zanton寝不足    时间: 2023-2-17 22:52
NSFC,看来树导也在赶国自然​(°∀°)ノ
作者: 我輩樹である    时间: 2023-2-17 22:55
Zanton寝不足 发表于 2023-2-17 22:52
NSFC,看来树导也在赶国自然​(°∀°)ノ

现在应该是最忙的时候,不过我已经脱离苦海了。
作者: 任性的猫腻儿    时间: 2023-2-17 23:19
先收藏了
作者: welsmann    时间: 2023-2-18 00:53
本帖最后由 welsmann 于 2023-2-18 00:55 编辑

小贴士:用webui的插件版本的话,功能更花里胡哨,可玩点更多。
直接extension里面找controlNET,然后intstall,然后再reload,抱脸网下一下模型,接着import
直接就能,ENJOY!
(, 下载次数: 61)
作者: 阿不xyz    时间: 2023-2-18 02:58
自己制造施法材料的时代已经来临了吗?
作者: LambdaDelta    时间: 2023-2-18 04:58
阔以 学习了
作者: kankan511    时间: 2023-2-18 10:10
树导大作,先收藏了
作者: houyuzhou    时间: 2023-2-18 10:28
liangxy 发表于 2023-2-17 21:04
请问大佬有什么办法能较好分辨ai画图和真人呢?

(, 下载次数: 61)

现在只是个梗,大胆预测两年内完全实现。
作者: liangxy    时间: 2023-2-18 11:12
houyuzhou 发表于 2023-2-18 10:28
现在只是个梗,大胆预测两年内完全实现。

懂了,谢谢,我也是听说ai还不能很好的生成手指
作者: feimiao    时间: 2023-2-18 11:44
我去搞个3060 12G试试 感谢
作者: feimiao    时间: 2023-2-19 20:09
hugface下载好慢囧
作者: 享妳    时间: 2023-2-19 22:20
好像手指处理都不行,早上B站 看人家发的也是
作者: 我輩樹である    时间: 2023-2-19 22:32
feimiao 发表于 2023-2-19 20:09
hugface下载好慢囧

下载慢的话,可以打开https://huggingface.co/lllyasviel/ControlNet/tree/main这个网址,然后进入各个目录,lfs标志后面有个向下的箭头,就是模型的地址,可以用迅雷之类的下载工具下。虽然麻烦了点,但和用git命令下没区别。
作者: xeon13    时间: 2023-2-19 22:43
manysu 发表于 2023-2-17 19:10
请问从3060开始到4090各个级别的显卡,作画性能方面有多大的提升幅度?

单说30到40的提升理论上应该巨大,因为40系的TensorCore支持Transformer Engine,可以自适应最优的计算精度,不过目前还没有看到能用上Transformer Engine的AIGC项目。
作者: manysu    时间: 2023-2-19 23:32
xeon13 发表于 2023-2-19 22:43
单说30到40的提升理论上应该巨大,因为40系的TensorCore支持Transformer Engine,可以自适应最优的计算精 ...

那比如3060 12G和3080ti 12G对比能提升多少速度呢?和CUDA数是否成正比?
我只大致了解显存越大,训练或生成的图片精度可以设置越高。
作者: feimiao    时间: 2023-2-20 10:42
我輩樹である 发表于 2023-2-19 22:32
下载慢的话,可以打开https://huggingface.co/lllyasviel/ControlNet/tree/main这个网址,然后进入各个目 ...

感谢 按照回复已经用工具下了
作者: xeon13    时间: 2023-2-20 13:57
manysu 发表于 2023-2-19 23:32
那比如3060 12G和3080ti 12G对比能提升多少速度呢?和CUDA数是否成正比?
我只大致了解显存越大,训练或 ...

做个不精准的估算,这两者性能差距大概是3080ti和3060 12GB的显存带宽比(912 vs 360)和这吐舌量算力比( 34.10 vs 12.74) 中比较大的那一个, 大概是2.5,2.6倍这样,不过只是大概估算。

作者: yangzi123aaa20    时间: 2023-2-20 14:24
manysu 发表于 2023-2-19 23:32
那比如3060 12G和3080ti 12G对比能提升多少速度呢?和CUDA数是否成正比?
我只大致了解显存越大,训练或 ...

(, 下载次数: 70) zsbd
作者: yangzi123aaa20    时间: 2023-2-20 14:25
xeon13 发表于 2023-2-19 22:43
单说30到40的提升理论上应该巨大,因为40系的TensorCore支持Transformer Engine,可以自适应最优的计算精 ...

消费级的卡把这玩意阉了
作者: 8886888    时间: 2023-2-20 14:35
welsmann 发表于 2023-2-18 00:53
小贴士:用webui的插件版本的话,功能更花里胡哨,可玩点更多。
直接extension里面找controlNET,然后intst ...

mark 一下, 尝试看看
作者: iseeeu    时间: 2023-2-20 14:49
这个核显没法玩吧?收藏贴子看下买显卡选择哪款比较好
作者: huhudna    时间: 2023-2-20 15:49
啥时候能把手画对
作者: xeon13    时间: 2023-2-20 16:47
yangzi123aaa20 发表于 2023-2-20 14:25
消费级的卡把这玩意阉了

并不是不可能
作者: manysu    时间: 2023-2-20 18:39
yangzi123aaa20 发表于 2023-2-20 14:24
zsbd

感谢提供,不过这个数据有点早了,不知道近期跑SD方面的测试数据有吗?
作者: wikieden    时间: 2023-2-20 18:48
看来以后显卡benchmark多了几个新项目了
作者: yangzi123aaa20    时间: 2023-2-20 19:23
xeon13 发表于 2023-2-20 16:47
并不是不可能

你看楼主发帖记录里面有,他已经测试过了,只有hopper能用
作者: 我永远喜欢框框    时间: 2023-2-20 20:38
提示: 作者被禁止或删除 内容自动屏蔽
作者: 我輩樹である    时间: 2023-2-20 21:09
我永远喜欢框框 发表于 2023-2-20 20:38
麻了 直接卡第一步 ···
Invoke-Expression : 无法将参数绑定到参数“Command”,因为该参数为空字符串。 ...

这我还是第一次遇到。。。
作者: hemlock    时间: 2023-2-21 10:55
老哥出现这个问题 怎么解决
RuntimeError: CUDA out of memory. Tried to allocate 58.00 MiB (GPU 0; 6.00 GiB total capacity; 5.16 GiB already allocated; 0 bytes free; 5.26 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation.  See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF

CUDA内存不足。尝试分配58.00 MiB(GPU 0;总容量6.00 GiB;已分配5.16 GiB;空闲0字节;PyTorch总共保留5.26 GiB)如果保留的内存>>分配的内存,请尝试设置max_split_size_mb以避免碎片。有关内存管理和PYTORCH_CUDA_ALLOC_CONF的文档,请参见文档。
作者: 我輩樹である    时间: 2023-2-21 10:57
hemlock 发表于 2023-2-21 10:55
老哥出现这个问题 怎么解决
RuntimeError: CUDA out of memory. Tried to allocate 58.00 MiB (GPU 0; 6.00 ...

改为低内存模式,文中有描述。
作者: BFG9K    时间: 2023-2-21 11:00
yangzi123aaa20 发表于 2023-2-20 14:24
zsbd

这图好老了
作者: hemlock    时间: 2023-2-21 11:01
我輩樹である 发表于 2023-2-21 10:57
改为低内存模式,文中有描述。

我改了,save_memory = True
但是,运行python gradio_pose2image.py,还是会出现这个提示
作者: BFG9K    时间: 2023-2-21 11:01
我手上现在闲置的卡有3080Ti和4090,纯跑图玩树导建议用哪张?
作者: 我輩樹である    时间: 2023-2-21 11:03
hemlock 发表于 2023-2-21 11:01
我改了,save_memory = True
但是,运行python gradio_pose2image.py,还是会出现这个提示 ...

运行就出错么?应该是显存被别的进程占用了。
作者: 我輩樹である    时间: 2023-2-21 11:06
BFG9K 发表于 2023-2-21 11:01
我手上现在闲置的卡有3080Ti和4090,纯跑图玩树导建议用哪张?

当然是4090,不过3080ti应该也没啥区别,这例里面的模型都是fp32的。
作者: cloud    时间: 2023-2-21 11:07
昨天研究下了control net 感觉骨架精度太低了 不能判断人物朝向和前后关系

有个网站可以 自己拖动木偶摆姿势 生成图片 和包含姿态坐标的json 如果可以导入坐标文件就好了
作者: hemlock    时间: 2023-2-21 11:09
我輩樹である 发表于 2023-2-21 11:03
运行就出错么?应该是显存被别的进程占用了。

我一开始也是这么认为的 然后我就把电脑重启了  开机就开始跑  还是这个提示  人麻了,另外想请教下
在from share import *的下面添加
在model = create_model('./models/cldm_v15.yaml').cpu()下面修改

这两行代码,是在哪个文件

作者: yajian2    时间: 2023-2-21 11:14
没有显卡,先拿cpu硬怼
作者: BFG9K    时间: 2023-2-21 11:16
我輩樹である 发表于 2023-2-21 11:06
当然是4090,不过3080ti应该也没啥区别,这例里面的模型都是fp32的。

那我用3080Ti跑了,我3080Ti是标准双槽双8PIN的,兼容性比4090好点
作者: 我輩樹である    时间: 2023-2-21 11:16
本帖最后由 我輩樹である 于 2023-2-21 11:18 编辑
cloud 发表于 2023-2-21 11:07
昨天研究下了control net 感觉骨架精度太低了 不能判断人物朝向和前后关系

有个网站可以 自己拖动木偶摆 ...


近期有一些研究进展,包括导入深度图,导入肢体区分图来指导生成。

https://replicate.com/jagilley/controlnet-depth2img
作者: 我輩樹である    时间: 2023-2-21 11:16
本帖最后由 我輩樹である 于 2023-2-21 11:23 编辑
hemlock 发表于 2023-2-21 11:09
我一开始也是这么认为的 然后我就把电脑重启了  开机就开始跑  还是这个提示  人麻了,另外想请教下
在fr ...


gradio_pose2image.py文件。

* 1,在```from share import *```的下面添加:

```
from cldm.hack import hack_everything
hack_everything(clip_skip=2)
```

记得也要加。
作者: quetzacoatl    时间: 2023-2-21 12:01
现在可以手动控制增加肢体了
作者: liangqian    时间: 2023-2-21 12:34
manysu 发表于 2023-2-20 18:39
感谢提供,不过这个数据有点早了,不知道近期跑SD方面的测试数据有吗?

tomshardware上月的测试数据
(, 下载次数: 71)

https://www.tomshardware.com/news/stable-diffusion-gpu-benchmarks
作者: feimiao    时间: 2023-2-21 14:24
hemlock 发表于 2023-2-21 11:01
我改了,save_memory = True
但是,运行python gradio_pose2image.py,还是会出现这个提示 ...

使用下面的命令运行ControlNet的pose2image功能。

```
python gradio_pose2image.py
```

等待初始化完成后,命令行将回馈一个网址,将其中的```0.0.0.0```改为```127.0.0.1```并使用浏览器打开。

--------------------------------------

这一步

出现

(control) PS C:\Users\feimiao\controlnet> python gradio_pose2image.py
logging improved.
cuda
cuda
No module 'xformers'. Proceeding without it.
ControlLDM: Running in eps-prediction mode
DiffusionWrapper has 859.52 M params.
making attention of type 'vanilla' with 512 in_channels
Working with z of shape (1, 4, 32, 32) = 4096 dimensions.
making attention of type 'vanilla' with 512 in_channels
Loaded model config from [./models/cldm_v15.yaml]
Traceback (most recent call last):
  File "gradio_pose2image.py", line 21, in <module>
    model.load_state_dict(load_state_dict('./models/control_sd15_openpose.pth', location='cuda'))
  File "C:\Users\feimiao\controlnet\cldm\model.py", line 18, in load_state_dict
    state_dict = get_state_dict(torch.load(ckpt_path, map_location=torch.device(location)))
  File "C:\Users\feimiao\.conda\envs\control\lib\site-packages\torch\serialization.py", line 699, in load
    with _open_file_like(f, 'rb') as opened_file:
  File "C:\Users\feimiao\.conda\envs\control\lib\site-packages\torch\serialization.py", line 230, in _open_file_like
    return _open_file(name_or_buffer, mode)
  File "C:\Users\feimiao\.conda\envs\control\lib\site-packages\torch\serialization.py", line 211, in __init__
    super(_open_file, self).__init__(open(name, mode))
FileNotFoundError: [Errno 2] No such file or directory: './models/control_sd15_openpose.pth'

请问是哪里有问题哈哈哈 快到最后一步了
作者: hemlock    时间: 2023-2-21 14:58
feimiao 发表于 2023-2-21 14:24
使用下面的命令运行ControlNet的pose2image功能。

```

control_sd15_openpose.pth
你要去下载这个模型,楼主已经给了下载的网址,你仔细找找
作者: 我輩樹である    时间: 2023-2-21 14:58
feimiao 发表于 2023-2-21 14:24
使用下面的命令运行ControlNet的pose2image功能。

```

把这个模型下载了,放到models目录里面。

https://huggingface.co/lllyasvie ... l_sd15_openpose.pth
作者: finished    时间: 2023-2-21 15:01
三次元能不能训练啊
作者: ywm4125    时间: 2023-2-21 15:03
留个脚印,感谢分享,回去试试
作者: feimiao    时间: 2023-2-21 15:04
我輩樹である 发表于 2023-2-21 14:58
把这个模型下载了,放到models目录里面。

https://huggingface.co/lllyasviel/ControlNet/resolve/main/ ...

感谢 马上下
作者: manysu    时间: 2023-2-21 15:46
liangqian 发表于 2023-2-21 12:34
tomshardware上月的测试数据

感谢提供,没想到7900系列居然不错啊~
作者: feimiao    时间: 2023-2-21 15:54
hemlock 发表于 2023-2-21 14:58
control_sd15_openpose.pth
你要去下载这个模型,楼主已经给了下载的网址,你仔细找找 ...

感谢哈哈 才看到
出现这个 没有看到反馈网址 改成127.0.0.1

这个是要等待么 哈哈哈 问题太多了 第一次玩
作者: hemlock    时间: 2023-2-21 15:58
feimiao 发表于 2023-2-21 15:54
感谢哈哈 才看到
出现这个 没有看到反馈网址 改成127.0.0.1

已经成功了啊 直接127.0.0.1:7860
作者: feimiao    时间: 2023-2-21 16:02
hemlock 发表于 2023-2-21 15:58
已经成功了啊 直接127.0.0.1:7860

哈哈哈哈 感谢 我去搞搞
作者: kingw12    时间: 2023-2-21 16:11
那么现在A卡可以渲染了吗




欢迎光临 Chiphell - 分享与交流用户体验 (https://www.chiphell.com/) Powered by Discuz! X3.5