找回密码
 加入我们
搜索
      

本地ai文生文(提示词) Ollama -> 文生图ComfyUI 小测

查看数: 6530 | 评论数: 4 | 收藏 2
关灯 | 提示:支持键盘翻页<-左 右->
    组图打开中,请稍候......
发布时间: 2024-5-5 22:23

正文摘要:

受chiphell网友以及网上论坛工作流启发,今天测了一下ollama的文生文性能。 果然不出我所料,又一个卧槽时刻。 ollama采用的模型是dolphin-llama3:8b-256k。 重点提示: you are Charles Dickens, gracefully descri ...

回复

Leciel 发表于 2025-1-25 20:13
sakurayi 发表于 2025-1-25 19:53
不知道LZ最近玩本地AI到什么程度了。。。最近也在捣鼓Ollama ,因为根本没有可以运行的GPU,只能在google c ...

前端试了openweb ui。 可以集成ComfyUI的api。

文生图基本上就停留在flux。图生视频停留在 LTX Video:
https://www.chiphell.com/forum.p ... ;page=1#pid56394889

LLM测试了Deepseek-r1。微调(RAG, Lora)什么的对我意义不大。

模型的发布更新太快了。墙外开源社群气氛十分火热,墙内貌似还是集中在小红书。。。

兴趣爱好和业务差别还是很大的,行业的领域知识决定训练内容的质量。真有兴趣可以找一份AI相关的工作,找个领域,机械,电子,精密仪器,医疗,司法等等,有针对的学习和应用。
YsHaNg 发表于 2025-1-25 20:02
sakurayi 发表于 2025-1-25 11:53
不知道LZ最近玩本地AI到什么程度了。。。最近也在捣鼓Ollama ,因为根本没有可以运行的GPU,只能在google c ...

ollama也支持cpu推理啊 慢就慢点 换个小点的模型纯推理也能用
sakurayi 发表于 2025-1-25 19:53
不知道LZ最近玩本地AI到什么程度了。。。最近也在捣鼓Ollama ,因为根本没有可以运行的GPU,只能在google colab 上微调。
本地玩AI,最需要的就是一张高端显卡了。
九天御风 发表于 2024-5-6 10:40
这不是公主,这是大户人家的**。要是没有头上的金器就是丫鬟了。

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-5-21 09:22 , Processed in 0.009313 second(s), 8 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表