彭博社的马克・古尔曼在其最新Power On通讯中,曝料称苹果在自研Siri大模型方面遭遇瓶颈后,已调整策略,转向付费委托谷歌为其定制一款基于Gemini的大语言模型。
(!^(74 D; 0iNcit 消息称此项合作旨在解决苹果此前在AI研发中面临的困境。早前有报道指出,苹果工程师开发Siri中遇到挑战,尤其是在各类应用程序(尤其是在银行等关键场景)中稳定、高效地执行任务方面。
m+J3t@$ h) .([ 因此苹果希望通过引入谷歌成熟的Gemini模型,来弥补自身在复杂AI任务处理上的短板,加速Siri的智能化进程,同时仍将该服务包装为苹果自家的核心技术对外推广。
B3V=;zn3
%TA3o71
4Fr\=TX 根据新的技术架构,Siri的AI任务处理将采用混合模式。对于相对简单的AI请求,系统会利用设备自身的计算资源在端侧完成;而对于更复杂的查询,则会通过加密的无状态数据,将其转交给部署在苹果“私有云计算”(Private Cloud Compute)服务器上的定制版Gemini模型处理。
>/DyR+?>4 N?'V,p
0= 这种“端云协同”的模式,既能发挥大模型的强大能力,又能最大限度地保护用户数据隐私,因为服务器不会存储任何个人信息。
Z ?{;|Z5 9OC!\'
8 升级后的Siri将具备三大核心组件,以实现更智能的用户交互:
[ Yzh(a8 @qfVt “查询规划器”能智能判断用户请求的最佳实现路径,决定是调用网页搜索、访问个人数据还是通过App Intents框架调用第三方应用功能。
}cL9`a9j :(|;J<R%_ “知识搜索系统”让Siri拥有一个通用知识库,能直接回答常识性问题。
JRm:hf' }lk_Oe1 “摘要器”能利用大模型能力,对通知、邮件、网页乃至音频内容进行高效总结。
f3+@u2Pv
wv2 苹果计划分阶段推出这些强大的AI新功能。预计在2026年春季发布的iOS 26.4更新中,用户将体验到包括应用内语音操控、基于个人上下文的精准服务等功能。
eoS8e$} 62&(+'$n 而在2026年6月的全球开发者大会(WWDC)上,随iOS 27一同亮相的更新将带来更多“重大”的人工智能技术突破,彻底重塑Siri的用户体验。
-
T,;Fr'