据媒体报道,微软安全研究团队近日披露了一项名为"Whisper Leak"的高风险隐私漏洞,该漏洞专门针对现代AI聊天服务,构成一种新型侧信道攻击,可能危及用户隐私安全。
与传统攻击需破解加密内容不同,Whisper Leak通过分析加密网络流量中的元数据——包括数据包大小、时序与序列模式——来推测用户的对话主题。研究人员指出,当前AI服务普遍采用的token-by-token流式传输方式,虽提升了交互体验,但在网络层面留下了可辨识的通信"指纹",使攻击成为可能。
为验证攻击有效性,微软团队训练了专门的机器学习模型,收集了大量AI应答过程中的加密数据轨迹。实验结果显示,不同主题的对话会形成系统性差异的元数据模式。例如,涉及"洗钱"等敏感话题的响应数据,在包体大小与传输节奏上明显区别于日常对话。在实验环境中,分类器识别特定敏感话题的准确率超过98%,表明该技术在现实中具备高精度、大规模主题监控的潜力。
这一漏洞暴露出AI聊天服务面临的系统性威胁。互联网服务提供商、公共Wi-Fi中的攻击者等均可利用Whisper Leak观察用户流量,识别并标记敏感对话。记者、社会活动人士、寻求法律或医疗协助的用户尤其面临风险——即便对话内容经加密保护,其谈论主题仍可能遭到泄露,进而引发审查或人身威胁。
在微软依据负责任披露原则向行业通报后,多家主流AI厂商已着手部署缓解方案。目前主要应对策略包括三类:通过随机填充或内容混淆,弱化数据包长度与语义间的关联;采用token批处理发送,降低传输过程的时间精度;以及主动插入虚拟流量,干扰元数据模式识别。
然而,这些防御手段也带来响应延迟增加与带宽开销上升等代价,迫使服务商在隐私保护与用户体验之间作出权衡。
对普通用户而言,当前可行的自保方式包括:在处理高度敏感内容时关闭流式应答功能,并避免在不可信网络环境中进行相关查询。(Suky)





京公网安备 11011402013531号