找回密码
 加入我们
搜索
      
查看: 12669|回复: 34

[显卡] ~~~~~皮衣黄昨天半夜又放大招,得,这回中高端的4080(S)和4090更不会降价了~~~~

[复制链接]
发表于 2024-2-14 23:11 | 显示全部楼层 |阅读模式
提示: 作者被禁止或删除 内容自动屏蔽
发表于 2024-2-14 23:23 | 显示全部楼层
gaming翻译成赌博了,哈哈
 楼主| 发表于 2024-2-14 23:25 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
 楼主| 发表于 2024-2-14 23:26 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
发表于 2024-2-14 23:27 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
发表于 2024-2-14 23:29 | 显示全部楼层
别听老黄吹牛逼了,估计就是tensorRT-LLM上面开8bit quant 或者smooth quant 跑的llama,没啥新的技术
发表于 2024-2-14 23:30 来自手机 | 显示全部楼层
带的模型过于拉胯了……
 楼主| 发表于 2024-2-14 23:37 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
发表于 2024-2-14 23:38 来自手机 | 显示全部楼层
股東表示支持
发表于 2024-2-14 23:44 来自手机 | 显示全部楼层
35G的本地AI有啥用? 感觉老黄想走folding@home那套,未来就要各位共享算力来开发自家AI
 楼主| 发表于 2024-2-14 23:45 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
发表于 2024-2-15 00:14 | 显示全部楼层
7b int4的llama……话都说不顺溜,完全搞笑的
发表于 2024-2-15 00:19 | 显示全部楼层
除非个人电脑都是量子计算机等级,不然现阶段本地AI是不可能的

老黄为了股价是竭尽脑汁想主意了

发表于 2024-2-15 00:26 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
 楼主| 发表于 2024-2-15 03:51 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
 楼主| 发表于 2024-2-15 03:53 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
发表于 2024-2-15 07:27 | 显示全部楼层
为什么20系不行。。。我刚把之前的10系升级成20系,就告诉我这个噩耗。。。
发表于 2024-2-15 08:19 | 显示全部楼层
都没玩过LM Studio? LM Studio出来这么久了也没看对显卡价格有什么影响
发表于 2024-2-15 09:51 | 显示全部楼层
~〇~ 发表于 2024-2-15 00:19
除非个人电脑都是量子计算机等级,不然现阶段本地AI是不可能的

老黄为了股价是竭尽脑汁想主意了

给你点个赞。
发表于 2024-2-15 09:51 | 显示全部楼层
本帖最后由 JackyQ2021 于 2024-2-15 09:53 编辑

重点:1、估计;2、很多人会是刚需。
重点来了:很多人会是刚需,这个很多人是1%还是0.1%的很多人?到底是百分比多少才是很多人,是统计学上的很多人,还是想当然的0.1%的很多人

有些人天天制造各种焦虑,生怕大家活的太悠闲了
发表于 2024-2-15 10:09 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
 楼主| 发表于 2024-2-15 10:26 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
 楼主| 发表于 2024-2-15 10:28 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
发表于 2024-2-15 12:17 | 显示全部楼层
我的笔记本刚好能跑...贵了反正我也不买...
发表于 2024-2-15 12:48 | 显示全部楼层
说实话挺鸡肋的 没啥意思
发表于 2024-2-15 13:32 | 显示全部楼层
确实win11自带的copilot比这本地若只好得多。。。
发表于 2024-2-15 13:34 | 显示全部楼层
完全不明白那种“本地部署=安全”“本地部署=不会联网”“本地部署=不上传东西”的想法
发表于 2024-2-15 14:10 | 显示全部楼层
llama2 顶配70B参数, 可以算算要多大的显存可以装下,即便这个70B参数的模型性能和Chat**都差距明显, 他这种缩微版的LLM性能真就只是一个玩具而已.
发表于 2024-2-15 14:33 | 显示全部楼层
不就是整合包嘛,图一乐的东西,拿这玩意跑ai吹什么显卡作用很大。。。不就跟当年买20系显卡说什么光追是未来一样搞笑嘛。。。等到了真能用的水平,怕不是显卡都更新到60系70系了,不会真觉得现在手里40系能战未来吧。。。。
况且,人家chat**的公司都要拉投资,甩开老黄,自己搞ai芯片了,不知道过个几年以后,还能有多少公司用显卡跑ai。。。。
发表于 2024-2-15 15:53 | 显示全部楼层
挺好的干活的都去买N,可惜没把A卡价格打下来
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-8-24 03:42 , Processed in 0.012334 second(s), 5 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表