AMD Ryzen AI CPU 和 Radeon RX 7000 GPU 现支持本地运行 LLM 和 AI 聊天机器人

WBOY
发布: 2024-03-08 08:30:12
转载
432 人浏览过

本站 3 月 7 日消息,AMD 公司今天发布公告,表示用户可以本地化运行基于 GPT 的大语言模型(LLM),从而构建专属的 AI 聊天机器人。

AMD 表示用户可以在包括采用 AMD 新 XDNA NPU 的 Ryzen 7000 和 Ryzen 8000 系列 APU,以及内置 AI 加速核心的 Radeon RX 7000 系列 GPU 设备上,本地运行 LLM 和 AI 聊天机器人。

AMD Ryzen AI CPU 和 Radeon RX 7000 GPU 现支持本地运行 LLM 和 AI 聊天机器人

AMD 在公告中详细介绍了运行步骤,例如运行 70 亿参数的 Mistral,搜索并下载“TheBloke / OpenHermes-2.5-Mistral-7B-GGUF”;如果运行 70 亿参数的 LLAMA v2,搜索并下载“TheBloke / Llama-2-7B-Chat-GGUF”。

AMD Ryzen AI CPU 和 Radeon RX 7000 GPU 现支持本地运行 LLM 和 AI 聊天机器人

AMD Ryzen AI CPU 和 Radeon RX 7000 GPU 现支持本地运行 LLM 和 AI 聊天机器人

AMD Ryzen AI CPU 和 Radeon RX 7000 GPU 现支持本地运行 LLM 和 AI 聊天机器人

AMD 并不是第一个这样做的公司,英伟达(NVIDIA)最近也推出了 "Chat with RTX",这是一个由 GeForce RTX 40 和 RTX 30 系列 GPU 支持的人工智能聊天机器人。它采用 TensorRT-LLM 功能集进行加速,基于本地化数据集提供快速生成的人工智能结果。

本站附上公告原文地址,感兴趣的用户可以访问阅读。

以上是AMD Ryzen AI CPU 和 Radeon RX 7000 GPU 现支持本地运行 LLM 和 AI 聊天机器人的详细内容。更多信息请关注PHP中文网其他相关文章!

相关标签:
来源:ithome.com
本站声明
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责声明 Sitemap
PHP中文网:公益在线PHP培训,帮助PHP学习者快速成长!