sakurayi 发表于 2025-1-25 19:53 前端试了openweb ui。 可以集成ComfyUI的api。 文生图基本上就停留在flux。图生视频停留在 LTX Video: https://www.chiphell.com/forum.p ... ;page=1#pid56394889 LLM测试了Deepseek-r1。微调(RAG, Lora)什么的对我意义不大。 模型的发布更新太快了。墙外开源社群气氛十分火热,墙内貌似还是集中在小红书。。。 兴趣爱好和业务差别还是很大的,行业的领域知识决定训练内容的质量。真有兴趣可以找一份AI相关的工作,找个领域,机械,电子,精密仪器,医疗,司法等等,有针对的学习和应用。 |
sakurayi 发表于 2025-1-25 11:53 ollama也支持cpu推理啊 慢就慢点 换个小点的模型纯推理也能用 |
不知道LZ最近玩本地AI到什么程度了。。。最近也在捣鼓Ollama ,因为根本没有可以运行的GPU,只能在google colab 上微调。 本地玩AI,最需要的就是一张高端显卡了。 |
这不是公主,这是大户人家的**。要是没有头上的金器就是丫鬟了。 |
Archiver|手机版|小黑屋|Chiphell
( 沪ICP备12027953号-5 )310112100042806
GMT+8, 2025-5-21 09:22 , Processed in 0.009313 second(s), 8 queries , Gzip On, Redis On.
Powered by Discuz! X3.5 Licensed
© 2007-2024 Chiphell.com All rights reserved.