2月19日消息,据CNBC报道,美国西弗吉尼亚州总检察长已对苹果公司提起消费者保护诉讼,指控其未能阻止通过 iOS 设备和 iCloud 服务存储和共享儿童性虐待材料。
共和党人约翰·“JB”·麦卡斯基指责苹果公司将隐私品牌和自身商业利益置于儿童安全之上,而其他大型科技公司,包括谷歌,微软以及Dropbox也存在类似问题。
他们更加积极主动,利用 PhotoDNA 等系统来对抗此类物质。
PhotoDNA 由微软和达特茅斯学院于 2009 年开发,它使用“哈希和匹配”技术,在儿童性虐待材料 (CSAM) 图像已被识别并报告给当局时,自动识别并阻止此类图像。
2021 年,苹果公司测试了自己的 CSAM 检测功能,该功能可以自动查找和删除儿童剥削图像,并将上传到美国 iCloud 的图像报告给美国国家失踪与受虐儿童中心。
但由于隐私倡导者担心这项技术可能会为政府监控创造后门,并可能被调整和利用来审查 iOS 设备上的其他类型的内容,该公司撤回了这些功能的计划。
此后该公司所做的努力并未让众多批评人士满意。
2024 年,总部位于英国的儿童虐待预防协会表示,苹果公司未能充分监测、统计和向有关部门报告其产品中的儿童性虐待材料。
在 2024 年加州北区法院提起的一起诉讼中,数千名儿童性虐待幸存者起诉苹果公司,指控该公司本不应该放弃其早期的儿童性虐待材料检测功能计划,并且允许此类材料在网上扩散,导致幸存者重温创伤。
自苹果公司首席执行官蒂姆·库克在 2014 年就隐私问题发表了一封公开信以来,苹果一直将自己定位为大型科技公司中最注重隐私的公司 。
如果西弗吉尼亚州的诉讼胜诉,可能会迫使苹果公司在设计或数据安全方面做出更改。该州正在寻求法定赔偿和惩罚性赔偿,以及禁令救济,要求苹果公司实施有效的儿童性虐待材料检测。
苹果公司的一位发言人在一封电子邮件声明中告诉 CNBC,“保护我们用户(尤其是儿童)的安全和隐私是我们工作的核心。”
该公司指出,其提供的家长控制功能和通信安全功能“会在检测到信息、共享照片、隔空投送甚至实时 FaceTime 通话中出现裸露内容时自动干预儿童的设备”,表明其致力于为用户提供“安全、保障和隐私”。
发言人补充说:“我们每天都在创新,以应对不断演变的威胁,并维护最安全、最值得信赖的儿童平台。”(鞭牛士编译)





京公网安备 11011402013531号