IT之家 11 月 23 日消息,根据美国加利福尼亚北区联邦法院最新公开的诉讼文件,Meta 被指控长期纵容、对其平台上的未成年人安全风险忽视不见。
![]()
原告方提交的简报显示,Meta 内部明知数百万陌生成年人通过其平台骚扰未成年人,导致青少年心理健康问题加剧,甚至还有涉及自杀、儿童性剥削的内容却极少删除,该公司系统性隐瞒风险并掩耳盗铃拒绝整改。
Instagram 前安全主管瓦伊什纳维・贾亚库马尔在证词中透露,2020 年入职时 Meta 有一项堪称离谱的规定:“涉及性交易或招嫖的账户需违规 16 次,直至第 17 次才会被封禁”,她称这一标准“远超行业任何合理阈值”;原告称该证词获内部文件佐证。
超过 1800 名原告(包括未成年人及其父母、学区及州检察长)在诉讼中指控,Meta、Snapchat 和 YouTube 等大型社交媒体平台“不计后果地追求增长,无视产品对儿童身心健康的危害”。
Meta 发言人辩称这一指控“断章取义误导公众”,并强调公司十年来持续推出青少年保护功能,如 2024 年推出的“Instagram 青少年账户”默认隐私设置、夜间禁用通知、限制陌生成人私信等功能。
但诉讼简报揭示了多项关键指控,IT之家总结如下:
1. 内容审查机制失效
Meta 平台未提供简易的儿童性虐待内容举报通道,却允许用户便捷举报“垃圾信息”“知识产权侵权”等低风险违规。内部政策允许性交易账户违规 16 次而不被封禁,公司却从未向公众披露过此政策。
2. 向国会隐瞒平台危害研究
2019 年 Meta 内部研究发现:Facebook 和 Instagram 用户“脱坑”一周后焦虑、抑郁类情况显著缓解,但公司以“受媒体舆论干扰”为由终止研究并隐瞒该结果。2020 年 12 月,Meta 在回应国会质询时否认“少女用户增长与抑郁焦虑存在关联”,仅答“否”。
3. 放任陌生人接触未成年人
2019 年研究者建议默认设置青少年账户为隐私状态以防陌生人接触,但增长团队评估此举将导致 Instagram 每年损失 150 万月活青少年用户。
内部员工称:“减少不良互动将引发用户增长危机”。直至 2024 年 Meta 才全面推行该设置,此前青少年日均遭遇 540 万次不良互动,平台内部将这类接触简称为“IIC”(不当儿童互动)。
4. 蓄意吸引低龄用户
内部文件显示,2017 年起 Meta 将“获取青少年新用户”列为核心目标。2024 年文件仍称“新增青少年用户对 Instagram 至关重要”。公司通过校方合作、定位推送(如课间“校园轰炸”通知)吸引学生。
尽管美国法律禁止 13 岁以下用户注册,但 2015 年 Instagram 仍有 400 万 13 岁以下用户;2018 年调查显示近 40% 的 9-12 岁儿童每日使用 Instagram。员工内部批评该策略如同“烟草公司故意引诱青少年成瘾”。
5. 搁置安全改进措施
2019 年为降低“社交攀比”危害,Instagram 曾测试隐藏点赞功能(项目代号“雏菊”),但因“损害广告收入”而被取消。同年以“加剧身材焦虑”为由禁用美颜滤镜,次年又因“增长受损”重新上线。另外,Meta 内部有关 AI 识别有害内容的技术研发亦遭高管叫停。
6. 放任自残内容传播
Meta 的 AI 系统即使 100% 确认内容属于饮食失调等未成年人风险内容,也不会自动删除;宣扬自残的内容需达到 94% 违规度才会被删,导致大量有害内容留存。2021 年内部调查中,超 8% 的 13-15 岁用户表示过去一周在 Instagram 目睹自残或自杀威胁。
7. 淡化产品成瘾性研究
2018 年 Meta 调查 2 万美国用户,发现 58% 存在“问题性使用”(55% 轻度,3.1% 重度),但公开报告仅提及 3.1% 的重度用户。员工内部邮件称“Instagram 是毒品,我们就是毒贩”,并建议警示公众“产品对大脑的影响”,但未被采纳。





京公网安备 11011402013531号