ym168 发表于 2024-3-7 21:24

AMD带来本地运行LLM, 可构建专属AI聊天机器人

继英伟达发布Chat with RTX以后,AMD现在也为用户带来了可以本地化运行基于**的大语言模型(LLM),用户可以此构建专属的AI聊天机器人,可以在具有XDNA NPU的Ryzen 7000/8000系列及内置AI加速核心的Radeon RX 7000系列GPU设备上运行,需要下载对应版本的LM Studio。



AMD表示,人工智能助手正迅速成为帮助提高生产力、效率甚至集思广益的重要来源。在用户自己设备的本地AI聊天机器人不仅不需要互联网连接,而且对话可以保留在本地系统上。

AMD在博客文章中提供了完整的运行步骤,并有具体的用例说明:如果想运行Mistral 7b,搜索“TheBloke/OpenHermes-2.5-Mistral-7B-GGUF”,例子中使用的是Mistral;如果想运行LLAMA v2 7b,搜索“TheBloke/Llama-2-7B-Chat-GGUF”,并从左侧结果中选择,通常是第一个结果。









感兴趣的AMD用户,如果有使用相应的CPU或GPU,可以参照原文进一步了解,按照相应的说明进行操作。

竞争对手英伟达是在上个月发布了Chat with RTX,作为一个技术演示应用,可以让用户以自己的内容定制一个聊天机器人,结合了检索增强生成、TensorRT-LLM和NVIDIA RTX加速技术。用户可以把PC上的本地文件作为数据集连接到开源的LLM,比如Mistral或Llama 2上,支持.txt,.pdf,.doc/docx,.xml等多种文件类型,只需要给出文件夹路径,AI就会在数秒内把它们加载到库中。

https://www.expreview.com/92668.html

昰昰暃暃 发表于 2024-3-8 08:52

太好了。回头下一个试试

psps3 发表于 2024-3-8 09:18

多了一种选择

谎言之神Cyric 发表于 2024-3-8 12:44

[流汗]至少AMD这边看上去能让人选模型,NVIDIA带的那个也太垃圾了……
页: [1]
查看完整版本: AMD带来本地运行LLM, 可构建专属AI聊天机器人