mi250/mi300这一类就是计算卡也不算是Sapphire Rapids的直接竞争对手(这一部分估计得intel后续的计算卡 ...
mi300是apu理论上可以出纯cpu版塞12个ccd,spr-hbm就是个笑话 牙膏的唯一卖点就是hbm了,120打不过96是真的没想到。年后已经确定要买一台单路9654,双路买不起。 ljy1414 发表于 2023-1-18 05:34
这是我先前看到的两个新闻
1. https://www.inside.com.tw/article/24618-nvidia-intel-doe
硬件竞争到这个份上,优势不光光是硬件本身,软件的成熟配套还是有影响的。Intel的软件支持和优化暂时是AMD追不上的,nv会选intel很大程度也是因为AMD间接在GPU领域有竞争。题外话,nv的DGX系列好几十上百万一台,用得起的不太多 fafnirken 发表于 2023-1-18 10:00
硬件竞争到这个份上,优势不光光是硬件本身,软件的成熟配套还是有影响的。Intel的软件支持和优化暂时是A ...
31楼可能忘了跟蓝宝石激流同时发布的还有加速卡
但是跟MI300比起来根本是被辗压的存在
用途也不太相同
https://news.mydrivers.com/1/815/815478.htm
------------
服务器市场基本上已经变成看谁的单一节点花的钱少,但是性能比预期越高https://cdn.jsdelivr.net/gh/master-of-forums/master-of-forums/public/images/patch.gif 黄仁勋估计也没想到intel这么拉吧
拉着hopper dgx跟intel一起陪葬 ljy1414 发表于 2023-1-18 10:22
31楼可能忘了跟蓝宝石激流同时发布的还有加速卡
但是跟MI300比起来根本是被辗压的存在
用途也不太相同
MI300这个设计思路比较超前,CPU和GPU能同时访问HBM,软件不崩就是革命性的高性能计算架构。
现在数据中心大厂都在抓ROI和PUE,i更换了新架构以后原来的核间延迟的优势没了,核少了,功耗大致还持平,能耗比和ROI都好看不了。要不是i的软件环境有优势,估计开A项目的更多 fafnirken 发表于 2023-1-18 10:59
MI300这个设计思路比较超前,CPU和GPU能同时访问HBM,软件不崩就是革命性的高性能计算架构。
现在数据中 ...
这个美帝新的超算已经在用了,先让科研人员吃螃蟹[偷笑] fafnirken 发表于 2023-1-18 10:00
硬件竞争到这个份上,优势不光光是硬件本身,软件的成熟配套还是有影响的。Intel的软件支持和优化暂时是A ...
做hub就要有做hub的自觉
用intel完全是因为grace的进度问题 panzerlied 发表于 2023-1-18 11:53
做hub就要有做hub的自觉
用intel完全是因为grace的进度问题
DGX产品定位上CPU的确是boot和hub,不过grace这代还是概念不行,MI300的路才是以后该走的 fafnirken 发表于 2023-1-17 23:12
手误了,大容量和低延迟缓存,HBM约等于超大的L4缓存。对高性能计算和大数据都会有一定好处 ...
hbm的延迟,一般般吧。
毕竟不是友商直接贴块缓存芯片。
那玩意就是聚合的带宽大,作为缓存也有一定的局限。
我不觉得大数据会适用,intel自己的推荐里面,xeon max的应用都是些内存访问密集的计算应用,比如说cfd啥的。
这个可以类比一下日本的那台超算,每个cpu配了32g的hbm。 赫敏 发表于 2023-1-17 23:06
8路这个东西按照现在的标准真的是智商税,现在大数据平台软件原生为集群设计,你弄一个几百核的大节点跟 ...
四路还是有人用的,毕竟内存槽多一倍。
那些传统小机的应用场合啦 beowulf 发表于 2023-1-18 14:26
hbm的延迟,一般般吧。
毕竟不是友商直接贴块缓存芯片。
那玩意就是聚合的带宽大,作为缓存也有一定的局 ...
只是看HBM的延迟是不见得好,但是SPR的HBM是用堆叠的方式去连接,如果L1、L2是T0,内存是T1,那HBM的延迟和优先级就是T1.5。hadoop就是起无数多个JAVA虚拟机,频繁的内存操作。至于为什么intel不推荐推测是因为这个CPU贵,跑大数据的推测不买单。
另外4路以上的机型常见于金融行业或者金融结算用途 高可用性要求很大的场合,现在相对于遍地的云来说比例小了很多,硬件成本实在太高了,1台顶2~4台 赫敏 发表于 2023-1-17 23:06
8路这个东西按照现在的标准真的是智商税,现在大数据平台软件原生为集群设计,你弄一个几百核的大节点跟 ...
还得看密度,8路的密度还是有机会比过amd的 fafnirken 发表于 2023-1-18 01:59
只是看HBM的延迟是不见得好,但是SPR的HBM是用堆叠的方式去连接,如果L1、L2是T0,内存是T1,那HBM的延迟 ...
但是spark是真滴慢,原生Hadoop更是慢到没边了
https://www.tpc.org/tpch/results/tpch_perf_results5.asp?resulttype=CLUSTER&version=3%¤cyID=0
阿里弄了个400多路万核集群才将将打败了18*2路7543+2*CD6 3.2T的屌丝集群 赫敏 发表于 2023-1-18 16:45
但是spark是真滴慢,原生Hadoop更是慢到没边了
https://www.tpc.org/tpch/results/tpch_perf_results5.as ...
云端后台的硬件可能是自研的倚天或者其他的什么,这TPC的目的更像是秀一下阿里的云端数据库的肌肉 fafnirken 发表于 2023-1-18 07:38
云端后台的硬件可能是自研的倚天或者其他的什么,这TPC的目的更像是秀一下阿里的云端数据库的肌肉 ...
我是觉得Hadoop生态圈总是暗示它们东西块,但一直遮遮掩掩不给跑分。搞了半天就这怪不得,阿里的spark已经是矮子里面拔将军,AWS啥的还不如
我觉得spark在不彻底优化parquet数据结构前追上顶级SQL引擎没戏 赫敏 发表于 2023-1-18 22:30
我是觉得Hadoop生态圈总是暗示它们东西块,但一直遮遮掩掩不给跑分。搞了半天就这怪不得,阿里的spark已 ...
你说的对,然而hadoop系大都开源(不要钱) ydjj 发表于 2023-1-17 19:49
Final Words
For many organizations, the new processors are going to be game-changing. Make no mistak ...
sth的老大patrick kennedy最近转了intel 某xeon组director jason kennedy的推。他们长相都挺像。sth这波明显是偏I的,大篇幅在讲accelerator,amd优势项目也提了但是比较含蓄。
Server不能搞忽悠人的小核,买Server的不是白痴,30e忽悠小白PC DIY的水军也没用
纯大核又被罗马、热那亚夹杀 QSG 发表于 2023-1-17 22:29
问题是intel 有8路
光是4路就已经在fat node领域领先一个身位了 赫敏 发表于 2023-1-17 23:06
8路这个东西按照现在的标准真的是智商税,现在大数据平台软件原生为集群设计,你弄一个几百核的大节点跟 ...
机器学习领域有用,特别是DRL。 还有很多老一点的银行系统离不开 xeon13 发表于 2023-1-27 23:21
机器学习领域有用,特别是DRL。 还有很多老一点的银行系统离不开
现在的机器学习系统都是原生分布式设计,编程几乎是透明的。各种性能指标几乎都是线性scalable,分布式系统IO指标还要更高。
你告诉我哪家公司的机器学习系统必须要用8路,我好让他们全部下岗。
老一点的银行系统离开不?这就更离谱了,既然老一点,那时候8路一共多少个盒,就算8*8吧, 现在单路都96核了,还要那8路有屁用?
在过时的技术上领先有半点值得骄傲的吗? 有人在意这世界上负重最大的马车一次能拉几吨吗? 人撞猪上 发表于 2023-1-28 07:17
现在的机器学习系统都是原生分布式设计,编程几乎是透明的。各种性能指标几乎都是线性scalable,分布式系 ...
别急着反驳, 你自己去看看DRL训练对CPU, 内存和GPU资源需求的分别是多少.
有些机器学习训练是可以分布式横向扩展的, 取决于是strong scaling还是weak scaling, 比如现在很火的LLM.
技术过时不代表市场没需求. 但是大内存需求的超算应用是越来越多了, CXL如果能用起来, 这个市场会更大 ydjj 发表于 2023-1-17 19:49
Final Words
For many organizations, the new processors are going to be game-changing. Make no mistak ...
哥们你去看看intel四季度的财报吧,23年牙膏厂会更惨。 QSG 发表于 2023-1-17 22:29
问题是intel 有8路
连8路系统中文全网都只见过无情开评做过一次开箱,8路那么好,为什么大家都不用呢?[恶魔]
页:
1
[2]