炸死企鹅
发表于 2023-5-26 10:17
[偷笑]壁垒不是CUDA生态吗
fluttershy
发表于 2023-5-26 10:21
壁垒在制程上 中芯国际都下架14nm了
xjr12000
发表于 2023-5-26 10:24
自研芯片只能配合自研的算法
别人一个版本升级,你的芯片可能就废了
reinhard_x
发表于 2023-5-26 10:28
CUDA生态圈算不算壁垒来着
chs
发表于 2023-5-26 10:50
壁垒是有的,但不是绝对的。
AI使用的技术框架这种东西是自上而下的,产研学这样的方向传递的(特指技术框架和硬件,不是算法)。因为主流是NV的CUDA等,技术框架也是选择行业最热门的,学校里教学和科研项目一般在大量数据运算的时候第一个想到的就是NV的显卡。
所以现在高校采购的显卡基本都是NV的显卡。
fairness
发表于 2023-5-26 10:59
芝士雪豹 发表于 2023-5-26 00:14
你们是真的懂,我一个搞recommend system的都没你们懂
业内人士请赐教,说说你的看法:老黄的卡到底有没有技术优势和壁垒。
xks07
发表于 2023-5-26 12:06
fluttershy 发表于 2023-5-26 10:21
壁垒在制程上 中芯国际都下架14nm了
不是下架是被迫低调 再吹逼 有DUV光刻机都可以让中芯国际的14NM成摆设。
光刻胶和各种化学原料,检测设备还不是靠进口。小鬼子制裁一下,中芯有什么办法。
国产半导体14NM制程目前能自给的也就蚀刻和晶圆,EDA也差不多搞定了。别的还需要很长时间。
bxhaai
发表于 2023-5-26 13:35
T.JOHN 发表于 2023-5-25 13:38
没壁垒,大公司自己造tpu,自己写算法,比如Google fb amazon。只是nv目前提供的硬件算力领先,并且容易采 ...
看似没壁垒,其实壁垒很高,光是成本一项别人就搞不定
LambdaDelta
发表于 2023-5-26 13:44
开发阶段用N卡有绝对的统治力,我觉得完全没问题。
真正应用落地的时候,就是硬件部署成本差异和移植成本的较量了。
solder
发表于 2023-5-26 13:48
T.JOHN 发表于 2023-5-26 09:37
壁仞科技BR100,公司2019年成立,2022年发布的BR100等同于NV A100/H100。公司“内斗”结果是不做GPU,只 ...
差点被柯基骂死那家?这样一无是处的公司竟然还有值得一说的东西吗
keyou4
发表于 2023-5-26 14:10
solder 发表于 2023-5-26 13:48
差点被柯基骂死那家?这样一无是处的公司竟然还有值得一说的东西吗
biren已经算是国内gpgpu做的很好的了,别的像海光主要还是因为当初amd给的vega code
Neo_Granzon
发表于 2023-5-27 09:14
T.JOHN 发表于 2023-5-26 09:37
壁仞科技BR100,公司2019年成立,2022年发布的BR100等同于NV A100/H100。公司“内斗”结果是不做GPU,只 ...
投资人和董事长都是明白人,游戏显卡完全不值得做,梭哈AI计算卡非常明智。
beowulf
发表于 2023-5-27 09:22
keyou4 发表于 2023-5-26 14:10
biren已经算是国内gpgpu做的很好的了,别的像海光主要还是因为当初amd给的vega code ...
立场不同,看问题的角度不同吧。
但是海光的dcu还是部署了不少的,不知道谁代工的🤣
赫敏
发表于 2023-5-27 09:52
ooff22 发表于 2023-5-25 12:45
所以我不明白那么人吹捧nv,每个大厂都有自己的计算卡,热点无非是chat**用了nv的集群而已,对于大厂来说 ...
各大厂有没错,但迭代速度跟不上nv。亚马逊不也有?结果吹了半天落地aws的时候nv已经迭代两代了,谁还用亚马逊的
fairness
发表于 2023-5-27 09:58
solder 发表于 2023-5-26 13:48
差点被柯基骂死那家?这样一无是处的公司竟然还有值得一说的东西吗
请问这个帖子是哪个(关键字有啥),想了解壁仭这家公司的情况。 网上搜的都是官方通告。
fairness
发表于 2023-5-27 10:01
beowulf 发表于 2023-5-27 09:22
立场不同,看问题的角度不同吧。
但是海光的dcu还是部署了不少的,不知道谁代工的🤣 ...
好像海光的第一代的代码和文档,都是从AMD那边直接拿过来的,是AMD那边流片过的。
所以可靠性还是有保证的。
psps3
发表于 2023-5-27 20:25
AI芯片目前有很多
yangzi123aaa20
发表于 2023-5-27 20:41
现在发论文时间慢一天可能就是发大财和破产的区别,谁会傻乎乎浪费时间去调试其他环境……也就大二大三没有毕业压力的大学生会尝试一下搞搞移植吧
ZBKX
发表于 2023-5-27 21:05
本帖最后由 ZBKX 于 2023-5-27 23:13 编辑
CUDA不是吗?
光有硬件没生态有屁用。
GPGPU和AI上CUDA成为了事实上的标准。
不然为什么一直有“类CUDA”的产品存在呢?[偷笑]
(OpenCL差不多寄了,Vulkan还没跟上,市场就剩下个CUDA了)
新加:现代能够写GPGPU的程序员大部分是CUDA那一派,在开发者上占据优势。
jackshen707
发表于 2023-5-27 21:09
SupremeMiner 发表于 2023-5-26 09:02
真的有人对ai一知半解就天天指点江山 虽然我做的是机器人 但身边做ml的都是一水的n卡 论文用的也是n卡 开 ...
都是 UBUNTU, ROS 加N卡
要是真有人能代替N卡的生态 ,早被投资者挤爆门了。 [偷笑]
TNTWW
发表于 2023-5-27 21:35
训练这块想完全取代N卡还没那么容易,如果是模型训练好了,开始实际业务部署的话,国内已经有挺多替代产品了,我现在所在的公司做的AI推理卡已经出货给一二线的互联网公司做实际业务部署使用了
陶仁贤
发表于 2023-5-27 22:18
CUDA 生态太齐全了。如果不是自己造轮子,直接选用 CUDA 衍生品。你想要的基本都齐全了。这个护城河太深。老黄投资 CUDA 很久很久很久了。
fairness
发表于 2023-5-27 23:03
本帖最后由 fairness 于 2023-5-28 08:25 编辑
TNTWW 发表于 2023-5-27 21:35
训练这块想完全取代N卡还没那么容易,如果是模型训练好了,开始实际业务部署的话,国内已经有挺多替代产品 ...
看来你们公司还是很牛的,有实际产品落地到推理这个领域; 是国外的还是国内的创业公司?
SupremeMiner
发表于 2023-5-28 00:39
jackshen707 发表于 2023-5-27 21:09
都是 UBUNTU, ROS 加N卡
要是真有人能代替N卡的生态 ,早被投资者挤爆门了。...
是这样的 还有扯特斯拉的 先不说特斯拉的东西出没出 落没落地 tesla dojo专攻的也只是cv处理 是不是在他们眼中只有自动驾驶是ai?
专门做ai的researcher还能不知道啥工具是必须的?这么看还是键盘侠懂
xeon13
发表于 2023-5-28 14:46
T.JOHN 发表于 2023-5-25 13:38
没壁垒,大公司自己造tpu,自己写算法,比如Google fb amazon。只是nv目前提供的硬件算力领先,并且容易采 ...
别人能做的ASIC芯片,N厂有啥不能做的?说白了,DSA们所谓的优势,只不过是在提前帮N测试市场上可能存在的技术需求。为什么能够这样呢? 因为N家芯片的软件接口,工作流,就是现在事实上的AI计算的软件接口标准。另外,N厂芯片可以把数据预处理流和ML计算流深度集成到同一个生产环境的流程里边,哪家ASIC能做到?
xeon13
发表于 2023-5-28 14:53
T.JOHN 发表于 2023-5-26 09:37
壁仞科技BR100,公司2019年成立,2022年发布的BR100等同于NV A100/H100。公司“内斗”结果是不做GPU,只 ...
张文都不敢和我这么吹, 论吹牛我只服你,
CRazy-牛牛
发表于 2023-5-28 16:18
chuxuanax 发表于 2023-5-25 14:51
国内拿不到nvdia显卡可以自己造专门的计算卡吗,
你以为国内超算计算卡哪里来的。
chuxuanax
发表于 2023-5-28 16:50
CRazy-牛牛 发表于 2023-5-28 16:18
你以为国内超算计算卡哪里来的。
不是买的nvdia吗
JackyQ2021
发表于 2023-5-28 17:15
SupremeMiner 发表于 2023-5-26 01:59
我都不知道他们在说什么 我身边的所有实验组清一水用nv卡做ai相关项目 猜猜这帮博士研究生毕业以后工作用 ...
进中小企业继续用NV,进超级大公司就用大公司自研的。没进入大银行软件中心参与核心业务开发,是根本想不到没人用的Cobol语言却是开发业务处理的适配语言,很多不流行的语言却是某一个特定行业的特定语言。最流行的往往是最不值钱的,但也是就业面最广的,竞争最激烈的!而那些针对行业性的特定技能,竞争不激烈但入门门槛高
dychenyi
发表于 2023-5-28 17:52
楼里觉得软件生态不叫壁垒吗。。
就苹果那生态都是壁垒,不然你让哪家安卓手机试试看呢。