彭博社的马克・古尔曼在其最新Power On通讯中,曝料称苹果在自研Siri大模型方面遭遇瓶颈后,已调整策略,转向付费委托谷歌为其定制一款基于Gemini的大语言模型。
<mP_K^9c KT<i%)t2 消息称此项合作旨在解决苹果此前在AI研发中面临的困境。早前有报道指出,苹果工程师开发Siri中遇到挑战,尤其是在各类应用程序(尤其是在银行等关键场景)中稳定、高效地执行任务方面。
!.%*Tp#k# Y->sJm 因此苹果希望通过引入谷歌成熟的Gemini模型,来弥补自身在复杂AI任务处理上的短板,加速Siri的智能化进程,同时仍将该服务包装为苹果自家的核心技术对外推广。
d_(;sW"I
V|A.M-XLv4
xuHP4$<h3 根据新的技术架构,Siri的AI任务处理将采用混合模式。对于相对简单的AI请求,系统会利用设备自身的计算资源在端侧完成;而对于更复杂的查询,则会通过加密的无状态数据,将其转交给部署在苹果“私有云计算”(Private Cloud Compute)服务器上的定制版Gemini模型处理。
b&A/S$* xN$V(ZX4 这种“端云协同”的模式,既能发挥大模型的强大能力,又能最大限度地保护用户数据隐私,因为服务器不会存储任何个人信息。
f-^*p zt]8F)l@ 升级后的Siri将具备三大核心组件,以实现更智能的用户交互:
)(YJ6l +?t&
7={~ “查询规划器”能智能判断用户请求的最佳实现路径,决定是调用网页搜索、访问个人数据还是通过App Intents框架调用第三方应用功能。
rp
@%0/[ StR)O))I “知识搜索系统”让Siri拥有一个通用知识库,能直接回答常识性问题。
;[lLFI -A}$5/ “摘要器”能利用大模型能力,对通知、邮件、网页乃至音频内容进行高效总结。
J7wwM'\ Gn6\n'r0 苹果计划分阶段推出这些强大的AI新功能。预计在2026年春季发布的iOS 26.4更新中,用户将体验到包括应用内语音操控、基于个人上下文的精准服务等功能。
s,C>l_4- b* n#XTV 而在2026年6月的全球开发者大会(WWDC)上,随iOS 27一同亮相的更新将带来更多“重大”的人工智能技术突破,彻底重塑Siri的用户体验。
F*z>B >{)