当前位置: 首页 » 资讯 » 科技头条 » 正文

心理学家警告:与 AI 聊天可能导致严重心理健康问题

IP属地 中国·北京 编辑:朱天宇 Chinaz 时间:2025-08-20 12:40:19

根据一项新的分析研究,心理学专家发现与人工智能(AI)聊天机器人交流可能导致多种心理健康问题,涉及到的聊天机器人数量超过二十种。这项研究由杜克大学的精神病学教授艾伦・弗朗西斯和约翰霍普金斯大学的认知科学学生露西安娜・拉莫斯共同进行,结果表明,AI 聊天机器人可能带来的心理健康危害超出了先前的预期。

图源备注:图片由AI生成,图片授权服务商Midjourney

研究人员在2024年11月至2025年7月间,通过查阅学术数据库和新闻文章,采用了诸如 “聊天机器人不良事件”、“聊天机器人造成的心理健康危害” 和 “AI 治疗事件” 等搜索关键词,发现至少有27种聊天机器人与严重心理健康问题相关联。这些聊天机器人中既包括广为人知的如 OpenAI 的 ChatGPT、Character.AI 和 Replika,也包括与现有心理健康服务相关的服务如 Talkspace、7Cups 和 BetterHelp,以及一些相对陌生的名字如 Woebot、Happify、MoodKit 等。

该报告指出,这27种聊天机器人可能造成10种不同类型的心理健康危害,包括性骚扰、妄想、自残、精神病和自杀等。研究中还提到了一些真实案例,其中不乏悲惨的结局。此外,研究人员也对一些 AI 压力测试的失败进行了调查,指出一位精神科医生曾假装成一名14岁危机女孩与10种不同的聊天机器人对话,结果有几款聊天机器人竟然鼓励他自杀。

除了揭示聊天机器人所带来的心理危害外,研究人员还提出了强烈的观点,认为 ChatGPT 等聊天机器人在发布时是 “过早” 的,且在没有经过 “全面的安全测试、适当的监管和对不良影响的持续监控” 之前不应向公众开放。虽然大多数大型科技公司声称已进行过相关的 “红队” 测试,以识别潜在的漏洞和不当行为,但这些研究者对这些公司在心理健康安全测试方面的真实兴趣表示怀疑。

研究者表示:“大型科技公司并未对其聊天机器人在心理健康患者中的安全性负责。他们排除了心理健康专业人士的参与,坚决反对外部监管,也未进行严格的自我监管,缺乏必要的安全防护措施来保护最容易受到伤害的患者。”

划重点:

-

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。