当地时间2月11日,科技记者马克·古尔曼发文称,苹果公司筹划已久的Siri虚拟助手升级在最近几周的测试中遇到问题,多项备受期待的功能可能会推迟发布。苹果原计划将这些新功能纳入定于3月发布的更新系统iOS 26.4中,但目前正考虑在未来的版本中将其陆续推出。这意味着,至少部分功能可能要等到5月iOS 26.5甚至9月iOS 27发布才会问世。
这已是新版Siri自2024年宣布升级以来的第二次重大延期。2024年6月,苹果在全球开发者大会上首次宣布将对Siri进行重大AI升级,依托自研大语言模型平台Apple Foundations Models,打造更智能的个人语音助手,原定2025年初推出。
后因自研AI模型性能未达预期,首次将发布时间推迟至2026年,内部进一步锁定3月随iOS 26.4上线,这一计划直至上个月仍未调整,苹果的高管们不希望新功能推迟到2026年春季之后发布。
但近期的内部测试打破了这一规划。据测试人员反馈,新版Siri存在技术缺陷,核心问题集中在响应稳定性与准确性上。包括Siri无法正确处理查询、响应时间过长、准确性问题,以及当用户语速过快时Siri会打断用户等漏洞。更棘手的是,新版Siri偶会错误调用与OpenAI ChatGPT的集成功能,而非使用苹果自身技术,即便该请求本可由自身系统处理。
受此影响,苹果正调整发布策略,计划将原本集中推出的新功能拆分至后续iOS版本中。其中,最可能延期的是两项核心功能:一是Siri访问个人数据能力的扩展,该功能可让用户通过语音指令,让Siri搜索旧短信、查找朋友分享的播客并直接播放;二是高级语音应用控制系统,支持用户用一句指令完成跨应用操作,如查找、编辑图片并发送给联系人。目前这两项功能虽有初步支持,但稳定性未能达到苹果上架标准。
屡次跳票、推迟的原因,很可能与苹果一直以来严格的隐私保护立场有关。在上周的一次员工会议中,软件工程主管Craig Federighi再一次强调,个性化的AI绝对不能泄露用户数据。Craig Federighi认为,AI行业标准是将用户的数据发送到服务器保存,而背后的公司会将其用于训练,但苹果会打破这个惯例,在AI领域引领潮流:AI数据只会存在于本地,或者保护隐私的服务器上,苹果训练AI依赖授权信息和合成数据,而不是用户的真实个人数据。他相信这种做法也能为用户提供一种优秀的AI体验,并且最终会被整个行业采用。库克也在同一场会议上透出口风:苹果正在内部推进新的数据中心芯片研发,目的不止是补强AI算力,更是为了搭出一套更“苹果式”的、为自家设备量身定制的数据中心方案。
与此同时,苹果的AI团队在去年经历了一次严重的人才流失,约数十名核心成员跳槽:苹果基础模型团队负责人、Siri智能搜索项目负责人投奔Meta,多位关键研究员也出走OpenAI、xAI、Cohere。
值得注意的是,苹果仍在推进两项未公开的新功能,包括类似Perplexity的网络搜索工具和基于Image Playground的自定义图像生成功能,这两项功能已在iOS 26.4和26.5测试版中出现,有望部分按原计划推进。
苹果还正为iOS 27等后续系统研发代号为“Campo”的重大AI项目,计划将Siri改造为类似聊天机器人的系统级助手,深度整合谷歌Gemini先进模型与苹果生态,覆盖邮件、日历等核心应用。
早在去年8月,就有消息称苹果正在就使用谷歌旗下Gemini AI来改进Siri语音助手进行初步谈判,并拟每年支付约10亿美元获取谷歌AI技术使用权。今年1月,苹果与谷歌达成一项多年期合作协议,苹果下一代基础模型将基于谷歌Gemini模型及云技术构建。这些模型将为未来苹果智能功能提供支持,包括预计于今年晚些时候推出的Siri重大升级版本。
不过,系统级数据调用需平衡体验与隐私保护,苹果或将强化本地处理与权限管控。信息安全也是苹果长期以来颇为看重的事项。
此外,苹果正在设计全新AI聊天机器人,使其底层模型可以随时更换。这意味着,该公司未来可以选择是否使用谷歌驱动的系统。
北京商报综合报道





京公网安备 11011402013531号