找回密码
 加入我们
搜索
      
查看: 9373|回复: 38

[显卡] 本地大模型的发展必然会导致显卡和计算卡的彻底分离

[复制链接]
发表于 2024-2-15 10:46 | 显示全部楼层 |阅读模式
目前的AI推理算法需要的算力还是很大,没办法降低到几十G tlops的程度,这必然导致多Tensor,多FP16,FP8单元的协处理器的问世。
以后配电脑的主流需求就是AI,可以预见的是,如果未来在游戏中引入高功能深度学习AI,双PCIe X16插槽的主板会成为游戏主板的主流,到时候就是一张GPU,一张NPU。由于AI算法生成对话不需要和画面渲染同步,因此这两个单元可以不集成在一个die上。NVIDIA未来势必会推出专用AI推理加速卡,一如曾经的2D、3D图形加速卡。
发表于 2024-2-15 10:49 | 显示全部楼层
专业性了点,面向的市场也应该是有这方面需求的公司和个体
发表于 2024-2-15 10:52 | 显示全部楼层
想多了。

只有推理单元和gpu做在一起老黄才有生态壁垒。单独做npu,何必用你老黄的?凭你更贵?

评分

参与人数 2邪恶指数 +10 收起 理由
Barcelona + 5 666
赫敏 + 5 非常赞同

查看全部评分

发表于 2024-2-15 10:52 来自手机 | 显示全部楼层
提示: 作者被禁止或删除 内容自动屏蔽
发表于 2024-2-15 10:54 | 显示全部楼层
确实,目前终端设备算力限制了复杂模型的应用,所以现在AI应用不是联网就是人工智障。
发表于 2024-2-15 11:21 | 显示全部楼层
反了吧,会导致如果显卡没有低精度卖不出去

分离早就分离了,但有AI以前计算卡只属于专业用途,如果落地成功家用也需要了,不会再和显卡分开了
发表于 2024-2-15 11:23 | 显示全部楼层
gbawrc 发表于 2024-2-15 10:52
个人计算机不会有这方面的需求

对,个人使用不需要那么高的算力。

另外,cpu和gpu都会增加AI功能,这种集成的对个人已经够用了。所以,局面不会有啥变化
发表于 2024-2-15 11:27 | 显示全部楼层
目前的趋势,训练和推理逐渐分开。训练是专门的环境,推理只要主流配置就能跑起来。目前复旦的框架能够在16g vram上跑40B模型,微软的deep speed框架支持用用吧系统的ram和gpu一起跑运算和推理。
发表于 2024-2-15 11:50 | 显示全部楼层
家用应该没多大需求,更多的是在云端。
发表于 2024-2-15 11:52 | 显示全部楼层
本帖最后由 cloud 于 2024-2-15 11:56 编辑

其实本地大模型才是邪路 除了实时性要求高的(比如动作捕捉/语音识别/自动驾驶) 都还是云端好

大多终端(手机/平板/笔记本)根本不具备足够的性能

即使具备 也存在一个持有成本的问题

一个GPU放云端可以被很多用户充分使用 一个GPU放本地你一个人用能用多少?
发表于 2024-2-15 12:15 | 显示全部楼层
gartour 发表于 2024-2-15 10:52
想多了。

只有推理单元和gpu做在一起老黄才有生态壁垒。单独做npu,何必用你老黄的?凭你更贵? ...

老黄可是想分开卖的, 这赚两分钱不好么. 你看专业卡和游戏卡不就是这个尿性么, 只能寄希望于AMD了...
发表于 2024-2-15 12:30 | 显示全部楼层
本地大模型什么意思?
把训练好的模型下载到本地,还是在本地训练大模型?
发表于 2024-2-15 12:44 | 显示全部楼层
TurbulenceY 发表于 2024-2-15 12:15
老黄可是想分开卖的, 这赚两分钱不好么. 你看专业卡和游戏卡不就是这个尿性么, 只能寄希望于AMD了... ...

反了。现在就是把两者捆在一起卖的两份钱,如果拆开,他就只能卖gpu那一份钱了,独立的npu他并没有优势,买不出溢价来。
发表于 2024-2-15 12:47 | 显示全部楼层
我还是认为个人pc没什么这方面的真正需求。
发表于 2024-2-15 12:48 | 显示全部楼层
当年我就跟intel建议,利用自己在x86和atx上的话语权,直接搞一个独立的npu出来,开辟另外一个战场。

评分

参与人数 1邪恶指数 +5 收起 理由
搞基薛定谔 + 5 就是NB

查看全部评分

发表于 2024-2-15 12:56 | 显示全部楼层
ADA&Hopper:啊对对对
发表于 2024-2-15 13:01 来自手机 | 显示全部楼层
已经没有专门的2d加速卡了吧?
发表于 2024-2-15 13:05 来自手机 | 显示全部楼层
拆是不可能拆的,nv就是靠功能集成碾压的amd。而且壁垒都是高度集成打造出来的,想想皮衣黄借鉴苹果那一套就知道了
发表于 2024-2-15 13:50 来自手机 | 显示全部楼层
目前来说,显存容量比算力的瓶颈更大,大模型都很吃显存,只要显存够能跑起来,算力不是太大问题,毕竟本地都是一个人独享,最多输出速度慢点。
发表于 2024-2-15 13:53 | 显示全部楼层
我想起来当年 80386,加上一块 80387 协处理器,就可以运算一些更复杂的数据了,后面就各种整合,现在开始又要变成分家的方式。
发表于 2024-2-15 13:57 | 显示全部楼层
二合一 有人接盘啊 专业卡没人要
发表于 2024-2-15 14:45 | 显示全部楼层
现实社会已经够烧脑了,加强ai以后玩个游戏也要绞尽脑汁?那我还是不玩了
发表于 2024-2-15 16:51 | 显示全部楼层
我輩樹である 发表于 2024-2-14 23:48
当年我就跟intel建议,利用自己在x86和atx上的话语权,直接搞一个独立的npu出来,开辟另外一个战场。 ...

这种实际能落地的领导层不会听,就喜欢听三哥oneAPI这种实现不了的大饼。结果就是做了几年撞墙后集成了一个手机级别的NPU
发表于 2024-2-15 23:44 | 显示全部楼层
感觉本地大模型很难有前途,现在能这么玩是因为模型开源,和算力关系并不大。以后把花费巨量成本进行训练的模型拿来公开的会越来越少。
何况所谓开源和传统开源也不一样。
发表于 2024-2-15 23:46 | 显示全部楼层
试了几个本地模型感觉都是玩具性质
发表于 2024-2-16 00:18 来自手机 | 显示全部楼层
卧槽,你太乐观,pc 都快要完蛋了,你还在这一惊一乍。
现在是手机的世界,以及各种游戏机。
玩 pc 真的很小众,也就咱国家人多,基数大。让你感觉好像很多人玩 pc 似的。
你看各种游戏各种死板的操作方式,玩会游戏,真不如出去打会球,或者带上车钥匙,开几公里车。开车的操控感,完虐任何游戏。
之前咱穷,建设不起各种娱乐场所。现在不同了。
发表于 2024-2-16 00:29 | 显示全部楼层
limon 发表于 2024-2-15 23:46
试了几个本地模型感觉都是玩具性质

还行,酒馆+tgw能玩的13b模型效果都还说得过去
发表于 2024-2-16 07:31 | 显示全部楼层
我輩樹である 发表于 2024-2-15 12:48
当年我就跟intel建议,利用自己在x86和atx上的话语权,直接搞一个独立的npu出来,开辟另外一个战场。 ...

要是能成就好了。。。英特尔的价格还是比较良心的,至少和老黄比起来很良心。。。
发表于 2024-2-16 10:54 | 显示全部楼层
燕山隐士 发表于 2024-2-15 13:53
我想起来当年 80386,加上一块 80387 协处理器,就可以运算一些更复杂的数据了,后面就各种整合,现在开始 ...

整合始终是基于一般用户需求的。
比如声卡/显卡。

独立的则是会慢慢被挤到高端市场。然后就看这个高端市场有多大了。
发表于 2024-2-16 12:11 | 显示全部楼层
archxm 发表于 2024-2-16 00:18
卧槽,你太乐观,pc 都快要完蛋了,你还在这一惊一乍。
现在是手机的世界,以及各种游戏机。
玩 pc 真的很 ...

你的观点需要革新了……
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2025-5-1 17:58 , Processed in 0.014074 second(s), 6 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表