AMD是通过其XDNA引擎将大规模AI计算引入消费级设备的先行者之一。AMD的APU产品(例如Strix Point和Strix Halo系列中的产品)提供了业内最高的AI性能,而现在,AMD已将边缘AI提升到了一个新的水平。该公司最新的Adrenalin Edition 25.8.1驱动程序引入了对128B参数LLM模型的支持,这将使消费级设备能够支持Meta的Llama 4 Scout等模型,这是目前独一无二的成就。
%G
SSy_c
8UcT?Zp 通过AMD的可变显存(VGM),消费者可以为iGPU提供高达96 GB的显存,从而支持大型模型在本地运行。由于上述Llama模型是基于MoE的实现,因此它在运行时仅使用170亿个参数,但尽管如此仍然可以获得不错的TPS数据,从而使LLM可以用作功能强大的AI助手。
?C{N0?[P-
f$'D2o, O 更重要的是,AMD在模型上下文大小方面取得了巨大的进步。虽然消费级处理器的行业标准大约是4096个词元,但AMD成功将其提升了数倍,达到了256000个词元,从而可以更好地控制工作流程,并且无需担心性能问题。
TK>}$.c%+ !R@4tSu 目前,搭载Strix Halo平台的设备有限,而且不太容易买到,有些设备的价格甚至超过了2000美元。然而,AMD在AI计算方面的进步确实令人欣喜,它让每个人都能拥有“AI力量”,尽管你需要花费不菲的钱才能买到目前市面上的设备。
jdp:G