Chiphell - 分享与交流用户体验
标题:
AMD带来本地运行LLM, 可构建专属AI聊天机器人
[打印本页]
作者:
ym168
时间:
2024-3-7 21:24
标题:
AMD带来本地运行LLM, 可构建专属AI聊天机器人
继英伟达发布Chat with RTX以后,AMD现在也为用户带来了可以本地化运行基于**的大语言模型(LLM),用户可以此构建专属的AI聊天机器人,可以在具有XDNA NPU的Ryzen 7000/8000系列及内置AI加速核心的Radeon RX 7000系列GPU设备上运行,需要下载对应版本的LM Studio。
(, 下载次数: 91)
上传
点击文件名下载附件
AMD表示,人工智能助手正迅速成为帮助提高生产力、效率甚至集思广益的重要来源。在用户自己设备的本地AI聊天机器人不仅不需要互联网连接,而且对话可以保留在本地系统上。
AMD在博客文章中提供了完整的运行步骤,并有具体的用例说明:如果想运行Mistral 7b,搜索“TheBloke/OpenHermes-2.5-Mistral-7B-GGUF”,例子中使用的是Mistral;如果想运行LLAMA v2 7b,搜索“TheBloke/Llama-2-7B-Chat-GGUF”,并从左侧结果中选择,通常是第一个结果。
(, 下载次数: 86)
上传
点击文件名下载附件
(, 下载次数: 86)
上传
点击文件名下载附件
(, 下载次数: 92)
上传
点击文件名下载附件
(, 下载次数: 101)
上传
点击文件名下载附件
感兴趣的AMD用户,如果有使用相应的CPU或GPU,可以参照原文进一步了解,按照相应的说明进行操作。
竞争对手英伟达是在上个月发布了Chat with RTX,作为一个技术演示应用,可以让用户以自己的内容定制一个聊天机器人,结合了检索增强生成、TensorRT-LLM和NVIDIA RTX加速技术。用户可以把PC上的本地文件作为数据集连接到开源的LLM,比如Mistral或Llama 2上,支持.txt,.pdf,.doc/docx,.xml等多种文件类型,只需要给出文件夹路径,AI就会在数秒内把它们加载到库中。
https://www.expreview.com/92668.html
作者:
昰昰暃暃
时间:
2024-3-8 08:52
太好了。回头下一个试试
作者:
psps3
时间:
2024-3-8 09:18
多了一种选择
作者:
谎言之神Cyric
时间:
2024-3-8 12:44
至少AMD这边看上去能让人选模型,NVIDIA带的那个也太垃圾了……
欢迎光临 Chiphell - 分享与交流用户体验 (https://www.chiphell.com/)
Powered by Discuz! X3.5