感谢测试!前阵子误打误撞用上了openvino,跑在核显上效果比想象中的好很多啊,而且安装实在是太方便了。等arc适配好了蝰蛇峡谷完全可以成为非常好用的边缘端推理机,而且x86 cpu能少很多jetson的兼容问题。也想搞一个玩玩了![]() |
gtv 发表于 2022-11-26 22:47 ![]() |
太硬核了,来学习下... |
双十一买了前代幻影,,感觉对我来说够用了。。 |
gtv 发表于 2022-11-26 22:48 chh遇到同行了 ![]() |
skyfish 发表于 2022-11-25 18:05 Intel Extension for Tensorflow/Pytorch 了解一下。 |
gwha2 发表于 2022-11-25 17:13 skyfish说的对,这个openvino就是一个inference engine,类似TRT。 你不用它也能加速,比如原生tf/pt + itex/ipex 也可以有不错的优化。没必要非用openvino。 另外这个nuc跑深度学习纯粹自讨没趣,不支持avx512,onednn的加速发挥不出来。至于用A770,只能说just for fun. |
好详细的测评,强烈支持……虽然我看不懂 |
izzue 发表于 2022-11-25 20:23 用雷电口就行 |
lz想问下。这种机器能拓展双网口嘛。拿来跑虚拟机玩。~ |
gwha2 发表于 2022-11-25 17:13 Xe没有tensorcore倒是有可能,这个没有仔细研究过, 第一点就等待Intel出tensorflow和pytorch的oneDNN后端了,看Intel OneAPI框图上是有的 |
skyfish 发表于 2022-11-25 15:19 我比较支持第一观点,我后面也提到了openVINO他并不是像ROCM那样替代CUDA的一个加速框架,要是intel能搞出来一个的话就舒服很多,这样就能直接用torch或者tf了,而不是训练好了再转IR推理 第二个问题我感觉存疑,因为Xe的具体表现是占用100%而不是显存使用爆了,而且模型的导入应该是一开始就加载到了内存里面,后面的输入都是很小量的,更像是Xe没ML相关的单元所以在硬算 |
这个骷髅比以前还小巧了吧 |
太长了 收藏下 一直对NUC感兴趣 就是没有下坑~ |
想纠正一下 1. openVINO其实并不跟cuda和rocm对应,openVINO只是一个推理引擎,跟cuda生态里的tensorRT是对应关系。tensorRT底层使用了cuDNN,而openVINO底层则使用了oneAPI(oneDNN) 2. 770/xe的加速比大于16/3可能是因为推理跑在xe上大概率顶到了ddr内存的带宽上限,而770则拥有更大的算力/内存带宽,所以看上去加速比更大些 大佬勿喷~ |
强悍精致的小机箱 |
coconutgallo 发表于 2022-11-25 12:39 ![]() |
s1mple 发表于 2022-11-25 09:56 用阿里源 |
很强,80瓦CPU释放,还没大atx电源大 |
去年买mbp16就一直很期待ARM soc的表现,今年终于等到m1版本的pytorch感觉还是远程用cuda好![]() |
强悍精致的小机箱,学习了 |
好专业,学习了 |
s1mple 发表于 2022-11-25 09:56 我最近一直用的pip,conda一直都有不稳定的情况,有时候速度下降很快 |
这个算不算性价比较高的设备 |
最近好像conda清华源不是很稳定,昨天师妹用的时候一直连不上,后来换的北外源 |
就算给我 也不知道能干点啥事 |
reinhard_x 发表于 2022-11-24 14:55 ![]() |
Wolverine 发表于 2022-11-24 15:16 NUC EXTREME上的骷髅越来越小了 ![]() |
好文章,顶楼主。 |
Archiver|手机版|小黑屋|Chiphell
( 沪ICP备12027953号-5 )310112100042806
GMT+8, 2025-5-24 08:13 , Processed in 0.017724 second(s), 11 queries , Gzip On, Redis On.
Powered by Discuz! X3.5 Licensed
© 2007-2024 Chiphell.com All rights reserved.