找回密码
 加入我们
搜索
      
楼主: enolc

[显卡] ~~~~~皮衣黄昨天半夜又放大招,得,这回中高端的4080(S)和4090更不会降价了~~~~

[复制链接]
发表于 2024-2-15 16:18 | 显示全部楼层
一碗米饭 发表于 2024-2-15 10:09
刚需个屁,edge自带的copilot,比你这玩具好用一亿倍

说到重点了
发表于 2024-2-15 20:04 | 显示全部楼层
richienie 发表于 2024-2-15 13:34
完全不明白那种“本地部署=安全”“本地部署=不会联网”“本地部署=不上传东西”的想法 ...

本地部署我可以直接拔网线完全离线
发表于 2024-2-17 01:51 | 显示全部楼层
装陈醋的酱油瓶 发表于 2024-2-15 20:04
本地部署我可以直接拔网线完全离线


是的, 课题组很多资料根本不能公开,但是文本数据极多有需要整理。这个就是是刚需。当然,课题组要用也不会用这个,这个就是玩具,开源比这个放心多了。
发表于 2024-2-17 04:46 | 显示全部楼层
~〇~ 发表于 2024-2-15 00:19
除非个人电脑都是量子计算机等级,不然现阶段本地AI是不可能的

老黄为了股价是竭尽脑汁想主意了


训练和推理要求的算力和资源大不一样,训练要求非常高,推理低很多
发表于 2024-2-17 09:35 | 显示全部楼层
7b int4的llama

那不是纯垃圾吗,随便上网找一些更新更精简但是参数更大更强的模型跑本地推理也完全碾压秒杀啊

帖子里吹的人不会完全没用过这些东西在本地跑推理吧,官方不塞个这么次的应用就完全找不着北的那种?
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-4-28 08:48 , Processed in 0.021011 second(s), 5 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表