yoloh 发表于 2024-2-15 16:18

一碗米饭 发表于 2024-2-15 10:09
刚需个屁,edge自带的copilot,比你这玩具好用一亿倍

说到重点了[偷笑]

装陈醋的酱油瓶 发表于 2024-2-15 20:04

richienie 发表于 2024-2-15 13:34
完全不明白那种“本地部署=安全”“本地部署=不会联网”“本地部署=不上传东西”的想法 ...

本地部署我可以直接拔网线完全离线

dreamwar 发表于 2024-2-17 01:51

装陈醋的酱油瓶 发表于 2024-2-15 20:04
本地部署我可以直接拔网线完全离线

是的, 课题组很多资料根本不能公开,但是文本数据极多有需要整理。这个就是是刚需。当然,课题组要用也不会用这个,这个就是玩具,开源比这个放心多了。

netjunegg 发表于 2024-2-17 04:46

~〇~ 发表于 2024-2-15 00:19
除非个人电脑都是量子计算机等级,不然现阶段本地AI是不可能的

老黄为了股价是竭尽脑汁想主意了


训练和推理要求的算力和资源大不一样,训练要求非常高,推理低很多

谎言之神Cyric 发表于 2024-2-17 09:35

7b int4的llama

那不是纯垃圾吗,随便上网找一些更新更精简但是参数更大更强的模型跑本地推理也完全碾压秒杀啊[流汗]

帖子里吹的人不会完全没用过这些东西在本地跑推理吧,官方不塞个这么次的应用就完全找不着北的那种?
页: 1 [2]
查看完整版本: ~~~~~皮衣黄昨天半夜又放大招,得,这回中高端的4080(S)和4090更不会降价了~~~~