论坛风格切换
 
  • 帖子
  • 日志
  • 用户
  • 版块
  • 群组
帖子
购买邀请后未收到邀请联系sdbeta@qq.com
  • 299阅读
  • 0回复

[业界新闻]AMD Strix Halo平台为消费级设备带来128B参数LLM模型的支持 [复制链接]

上一主题 下一主题
 

发帖
11335
今日发帖
最后登录
2026-04-10
只看楼主 倒序阅读 使用道具 楼主  发表于: 2025-07-30 13:58:04
  AMD是通过其XDNA引擎将大规模AI计算引入消费级设备的先行者之一。AMD的APU产品(例如Strix Point和Strix Halo系列中的产品)提供了业内最高的AI性能,而现在,AMD已将边缘AI提升到了一个新的水平。该公司最新的Adrenalin Edition 25.8.1驱动程序引入了对128B参数LLM模型的支持,这将使消费级设备能够支持Meta的Llama 4 Scout等模型,这是目前独一无二的成就。 P`EgA  
"]#'QuR  
  通过AMD的可变显存(VGM),消费者可以为iGPU提供高达96 GB的显存,从而支持大型模型在本地运行。由于上述Llama模型是基于MoE的实现,因此它在运行时仅使用170亿个参数,但尽管如此仍然可以获得不错的TPS数据,从而使LLM可以用作功能强大的AI助手。 I^G^J M!  
F+uk AT  
  更重要的是,AMD在模型上下文大小方面取得了巨大的进步。虽然消费级处理器的行业标准大约是4096个词元,但AMD成功将其提升了数倍,达到了256000个词元,从而可以更好地控制工作流程,并且无需担心性能问题。 6aY>lkp  
!^iwQ55e2A  
  目前,搭载Strix Halo平台的设备有限,而且不太容易买到,有些设备的价格甚至超过了2000美元。然而,AMD在AI计算方面的进步确实令人欣喜,它让每个人都能拥有“AI力量”,尽管你需要花费不菲的钱才能买到目前市面上的设备。 u]E.iXp