OpenAI近来对英伟达部分最新一代人工智能芯片在推理环节的表现并不满意,尤其是在软件开发、模型与其他软件系统交互等特定用例中,认为现有硬件在响应速度上难以满足需求,因此从去年起就开始系统性地寻找替代方案。这使得这家最知名的AI模型公司与长期依赖的核心供应商之间的关系变得更为复杂。
4B!]%Mw;c
Fb[<YX" 报道指出,尽管英伟达依然在大模型训练用GPU领域占据主导地位,但OpenAI的战略重心正在向推理阶段倾斜,也就是模型向终端用户输出答案的那一部分运算。在这一环节,延迟和吞吐表现直接关系到用户体验和成本结构,因此OpenAI希望部分工作负载能转移到更适合高带宽、低延迟推理场景的新型芯片上。
kXv
-B-wOj 8v c4J5 OpenAI与英伟达之间原本正在推进一项体量高达约1000亿美元的投资与供货安排:英伟达计划以投资换取OpenAI股权,同时未来数年为其提供大规模先进芯片资源。这笔被外界视为“板上钉钉”的交易原本预计很快敲定,但如今谈判已拖延数月,一方面是因为OpenAI与AMD等厂商签署了新的GPU采购或合作协议,另一方面则是其产品路线图变化影响了对计算资源类型和比例的需求。
tUL(1:-C eH79,!=2 在公开表态上,双方仍尽力维持合作关系的积极形象。英伟达CEO黄仁勋近日否认与OpenAI存在紧张关系,称有关不和的说法“完全是胡说”,强调公司仍计划对OpenAI进行大规模投资;英伟达对外表示,客户之所以在推理工作负载上继续选择其产品,是因为其在性能与总体拥有成本方面仍具优势。OpenAI发言人也称,公司在推理集群方面“绝大部分”仍依赖英伟达,认为后者在推理性能和性价比上仍处于领先位置。
Nqewtn9n =<R77rnY& 不过,接近内部情况的多名消息人士透露,OpenAI对英伟达硬件在特定类别推理任务上的速度并不满意,认为其在代码生成等产品上的体验受到限制。为此,OpenAI正计划引入可以满足大约一成未来推理算力需求的新型硬件,以作为现有GPU集群的补充。在这过程中,公司曾与包括Cerebras和Groq在内的初创企业商谈合作,希望利用它们在推理加速方面的特长。
JFl@{6c F5{~2~Cw( 技术层面上,OpenAI关注的是在同一块芯片中尽可能集成更多片上静态存储(SRAM)的架构。这类设计可以显著缩短计算单元访问参数和中间数据的路径,从而提升聊天机器人和其他AI系统在处理海量请求时的响应速度。相比之下,英伟达和AMD的传统GPU依赖外置显存,这在推理阶段会增加访存延迟,使得芯片在大量时间里处于“等数据”的状态。
3E:wyf)i" aFd
, 这种瓶颈在OpenAI内部最直观地出现在针对程序员的编程产品上。公司内部有人将部分体验短板归因于基于GPU的硬件架构,认为要满足专业用户对速度的高度敏感,就必须寻找具有结构性优势的推理芯片。CEO山姆·奥特曼在1月底与媒体沟通时也表示,企业用户在使用代码类模型时会对速度“赋予极高权重”,而普通聊天机器人用户对响应速度的容忍度相对更高。
/?HRq ?n v"=^?5B 为了提高推理速度,OpenAI最近与Cerebras达成了合作,由后者为其提供新一代计算平台,这被视为满足高端客户低延迟需求的重要一环。同时,业内人士指出,竞争对手如Anthropic的Claude和Google的Gemini在部署上更多依赖Google自研的张量处理单元(TPU),这类专用芯片在推理和复杂推断任务上相较通用GPU具备一定性能优势,也加大了英伟达在新一轮AI硬件竞赛中的压力。
&c?-z}=G vpTS>!i 面对客户需求变化与新竞争态势,英伟达也在主动出击,接触了一批专注高带宽SRAM架构的芯片公司,包括Cerebras和Groq,探讨收购或深度合作的可能。Cerebras最终拒绝了被收购的选项,而是与OpenAI签下商业协议;Groq则一度与OpenAI商谈提供算力服务,并吸引到投资者以约140亿美元估值注资的兴趣。
/dBQ*f5 nBZqhtr 不过,去年12月,英伟达以约200亿美元的对价达成了对Groq技术的非独家授权交易,并陆续从Groq挖走芯片设计团队。在这桩交易后,Groq的业务重心转向云端软件销售,而英伟达则将其视为对自家产品路线图的重要补充,以便在快速演化的AI行业中填补推理加速技术上的短板。
e#SNN-hKsJ