七月_鸢尾 发表于 2025-3-22 09:56
理论上可以的,你去开发了就行
KimmyGLM 发表于 2025-3-22 09:57
上面水友的帖子里面 是2080ti 主卡+V100组合,跑110B 是可以的;
但是不知道跨这么多代,行不行 ...
xukai_286 发表于 2025-3-22 12:54
是可以的,hugging face上也有类似的,比如https://github.com/huggingface/accelerate
但这其实对于推理 ...
deng198679 发表于 2025-3-22 13:39
应该没有人会闲的给个人需求适配接口,以前的游戏 hybrid 显卡混合渲染最后也不了了之。除非lz自行上github ...
KimmyGLM 发表于 2025-3-22 13:58
KTransformer 就这么诞生了,清华另外一个项目“赤兔”也很热门,可以让非FP8显卡也能跑FP8格式的模型。 ...
我輩樹である 发表于 2025-3-23 11:31
5070ti就行了,900G的显存带宽 + PCIE5.0x16,不需要买旧卡。目前可能有点适配上的小问题,能自己调代码最 ...
KimmyGLM 发表于 2025-3-23 16:11
Dense 32B模型,fp16大约要66G一张,只一张卡不够。
a010301208 发表于 2025-3-23 16:26
真要跑要么PCIe5组卡,要么买魔改的3080 20G组卡,不建议2080TI和V100,不支持FP8和BF16也不支持FlashAtten ...
a010301208 发表于 2025-3-23 16:26
真要跑要么PCIe5组卡,要么买魔改的3080 20G组卡,不建议2080TI和V100,不支持FP8和BF16也不支持FlashAtten ...
欢迎光临 Chiphell - 分享与交流用户体验 (https://www.chiphell.com/) | Powered by Discuz! X3.5 |