英伟达更新G-Assist 采用新的轻量级AI模型,显存需求降至6GB
https://www.expreview.com/101273.html英伟达一直致力于将人工智能(AI)与游戏融合在一起,比如推出了NVIDIA ACE,可以利用AI打造更生动的游戏NPC。去年英伟达在COMPUTEX 2024上,为游戏玩家们带来了一个针对游戏而开发的AI助手,名为Project G-Assist。
英伟达在Gamescom 2025上宣布,将对Project G-Assist进行重大更新。其采用了新的轻量级AI模型,速度更快,显著提升了效率,在保持相同的响应准确性前提下,使得显存需求大幅减少40%。用户只需要在NVIDIA App里,选择更新Project G-Assist即可。
Project G-Assist作为一个本地小型语言模型,过去需要大概10GB的存储空间来支持相关的功能。如果玩家想使用Project G-Assist,那么要使用GeForce RTX 30/40/50系列桌面显卡,而且显卡至少要有12GB,这一点就已经排除掉不少PC。随着这次的升级,为更多的显卡打开了Project G-Assist的大门,比如基于Blackwell架构的GeForce RTX 5060和RTX 5060 Ti 8GB等。此外,之前Project G-Assist也不支持移动显卡和RTX PRO工作站显卡,现在这些限制都已经解除,适用产品得到了大范围的扩展。
这次英伟达还带来了与mod.io的合作,带来了G-Assist插件,允许用户为游戏外设等添加插件。
老黄:我们已经推出了材质劣化技术,可以大幅降低显存占用,大家快来买5060 8g吧 为8G显存用户定制[流汗] forfans 发表于 2025-8-19 08:39
为8G显存用户定制
8g占了6g怎么跑游戏 赫敏 发表于 2025-8-20 03:56
8g占了6g怎么跑游戏
聊天游戏2G显存够了。。。 ufo.yang 发表于 2025-8-19 21:33
老黄:我们已经推出了材质劣化技术,可以大幅降低显存占用,大家快来买5060 8g吧 ...
说g不说吧,文明你我他[偷笑] 就不能把AI模型放在服务器上吗? libfire2002 发表于 2025-8-20 09:21
就不能把AI模型放在服务器上吗?
可以,本地 服务器都可以 rukky 发表于 2025-8-20 15:40
可以,本地 服务器都可以
哦,那如果 20万人连机,都用AI NPC,服务器需要多少算力? libfire2002 发表于 2025-8-20 15:49
哦,那如果 20万人连机,都用AI NPC,服务器需要多少算力?
所以需要本地,云端和本地结合,本来生成一个对话和表情,要不了多少算力可以本地运行。 397:你尽管技术进步,55ai2K显存占用低过15G我篮子拧下来给你盘[高傲]
页:
[1]