找回密码
 加入我们
搜索
      
查看: 3055|回复: 4

[通讯科技] 富士通发布了Fugaku-LLM, 使用Fugaku超算进行训练

[复制链接]
发表于 2024-5-11 20:37 | 显示全部楼层 |阅读模式


日本的Fugaku超级计算机在很长时间里,一直都位居Top500榜首,即便现在已经不是世界上最快的计算机器,但是仍然是一个强大的系统。其搭载了富士通开发的A64FX,是首款使用SVE指令集的Arm架构处理器,具备多功能特性,支持FP64、FP32、FP16和INT8格式,允许用于各种工作负载,也包括人工智能(AI)。

据TomsHardware报道,富士通在本周发布了Fugaku-LLM,是一个具有高级日语处理能力的大型语言模型(LLM),专为研究和商业应用而设计,其中使用了Fugaku超级计算机来进行训练。Fugaku-LLM计划是由日本多家企业和科研院校合作推动的,包括了东京工业大学、东北大学、富士通、RIKEN、名古屋大学、CyberAgent和Kotoba Technologies等。

Armv9_7.jpg

Fugaku-LLM具有130亿个参数,与 **-4的1750亿个参数相比显得要小得多。富士通表示,Fugaku-LLM的130亿个参数不需要大量的计算资源来推理,对日本的企业和研究人员来说是最佳选择,其中大约60%的训练数据是日语,40%的数据是英语、数学和代码数据。Fugaku-LLM有着不错的日语水平,在日语MT-Bench上获得了5.5的平均分,另外在人文和社会科学方面尤其出色,取得了令人印象深刻的9.18分的基准成绩。

A64FX采用台积电7nm FinFET工艺制造,拥有87.86亿个晶体管,596个信号针脚,集成了52个核心,包括48个计算核心和4个一样结构的管理核心。所有的52个核心分为四组,每组13个,共享8MB二级缓存。每组之间的互联使用的是富士通第二代TOFU,也就是6D mesh/torus片上互联网络。同时配置了配的32GB HBM2内存,16条PCIe Gen3通道,拥有1024 GB/s的存储带宽。可以提供2.7 TFLOPS@64bit,21.6 TFLOPS@8bit的性能。

富士通下一代针对AI和HPC应用的Arm处理器正在开发中,代号为“MONAKA”,以取代现有的A64FX。其配备了大约150个增强型Armv9核心,并拥有使用加速器的能力,将提供强大的性能。

新闻来源:https://www.expreview.com/93730.html

评分

参与人数 1邪恶指数 +20 收起 理由
灯下狐 + 20

查看全部评分

发表于 2024-5-12 03:46 | 显示全部楼层
这个开源吗
发表于 2024-5-12 22:29 | 显示全部楼层
Post-K这种注重双精度浮点性能的传统超算,其训练能力是无法和现有的GPU/NPU抗衡的,例如华为910b便以单芯片实现了300+TFLOPS的bf16精度,一片能顶A64FX十片。这个用A64FX训练的大语言模型的象征意义大于实质,后面还是得做专用NPU。
发表于 2024-5-13 07:28 | 显示全部楼层
风车车 发表于 2024-5-12 22:29
Post-K这种注重双精度浮点性能的传统超算,其训练能力是无法和现有的GPU/NPU抗衡的,例如华为910b便以单芯 ...

几年前NEC搞过Vector Engine,貌似就是个NPU,但是现在也没下文了
富岳感觉最大的意义就是支持SPARC,很多祖传的代码又可以继续跑了
发表于 2024-5-14 09:40 | 显示全部楼层
我朝的超算和AI,都落后了,得抓紧啊
您需要登录后才可以回帖 登录 | 加入我们

本版积分规则

Archiver|手机版|小黑屋|Chiphell ( 沪ICP备12027953号-5 )沪公网备310112100042806 上海市互联网违法与不良信息举报中心

GMT+8, 2024-5-24 05:02 , Processed in 0.010273 second(s), 7 queries , Gzip On, Redis On.

Powered by Discuz! X3.5 Licensed

© 2007-2024 Chiphell.com All rights reserved.

快速回复 返回顶部 返回列表