当AI成为数亿人深夜唯一的倾诉对象,它是否准备好承担这份沉重的信任?OpenAI近日披露了一组令人警醒的数据:每周有超过100万活跃用户在与ChatGPT的对话中表达自杀意图——这一数字占其8亿周活用户的0.15%,相当于每分钟就有近100人向AI袒露生死挣扎。此外,数十万用户在交互中显现出精神病性或躁狂症状,揭示出AI聊天机器人正意外成为全球规模最大的“非正式心理支持渠道”。
面对这一严峻现实,OpenAI正加速技术与政策双重应对。最新发布的GPT-5在心理健康对话中的表现显著提升:在专门针对自杀干预的评估中,其提供合规、安全回应的比例从旧版的77%跃升至91%,整体理想回应率提高65%。新模型不仅能识别高危信号,还能在长时间对话中持续激活安全协议,避免因上下文遗忘而给出危险建议。
然而,技术进步难掩伦理困境。OpenAI已面临多起诉讼,有家庭指控其孩子在向ChatGPT倾诉自杀想法后未获有效干预,最终酿成悲剧。加州与特拉华州检察长亦发函要求加强对青少年用户的保护。对此,公司计划部署AI驱动的年龄预测系统,自动识别未成年用户并启用更严格的内容过滤与危机响应机制。
尽管如此,OpenAI坦承,部分回应仍“不理想”,尤其在旧版模型广泛使用的情况下,风险持续存在。更深层的问题在于:当用户将AI视为情感出口,而AI本质上并无共情能力,这种错位的信任可能带来虚假安慰甚至误导。
这场危机暴露了生成式AI在社会角色上的模糊边界——它既是工具,又被当作倾听者;既无行医资质,却常被赋予“救命”期待。OpenAI的升级只是起点,真正的挑战在于:如何在不扼杀AI开放性的同时,构建一套负责任的危机干预体系?在技术狂奔的时代,守护人心,或许比优化参数更为紧迫。





京公网安备 11011402013531号