根据斯坦福大学脑科学实验室和青少年与科技研究机构 Common Sense Media 于 11 月 20 日发布的报告,青少年不应依赖人工智能聊天机器人进行心理健康咨询或情感支持。研究人员在过去四个月里对多款流行的 AI 聊天机器人进行了测试,包括 OpenAI 的 ChatGPT-5、Anthropic 的 Claude、谷歌的 Gemini 2.5 Flash 以及 Meta AI,尽量使用专为青少年设计的版本,并开启了家长控制功能。
经过数千次互动,研究结果显示,AI 聊天机器人在处理青少年的心理健康问题时,往往无法安全或适当地做出反应。研究者指出,这些机器人更像是热情的倾听者,关注的是用户的持续使用,而不是将他们引导到专业人士或其他重要资源。“聊天机器人在面对严重心理健康问题时,不知道该扮演什么角色,” 脑科学实验室的创始人兼执行主任尼娜・瓦桑说。
数据显示,大约四分之三的青少年使用 AI 进行陪伴,其中包括心理健康建议。为了帮助青少年理解聊天机器人与人类之间的区别,教育者可以发挥重要作用。瓦桑提到,青少年在与系统互动时拥有巨大的能力,帮助他们意识到聊天机器人在这些重要话题上无法提供与人类相同的回应是至关重要的。
尽管一些公司在处理提及自杀或自残的提示时已经有所改善,报告指出聊天机器人仍然经常遗漏其他心理健康问题的警示信号,如强迫症、焦虑症和创伤后应激障碍等。而且,聊天机器人通常不会明确警告用户 “我是一款 AI 聊天机器人,不是心理健康专业人士,我无法评估你的情况”。
政策制定者也开始关注聊天机器人可能带来的风险,例如美国参议院上个月提出的两党立法,禁止科技公司向未成年人提供这些机器人,并要求清楚告知用户这些机器人并非人类且没有专业资格。
划重点:





京公网安备 11011402013531号