当前位置: 首页 » 资讯 » 科技头条 » 正文

微言 | 沉迷AI聊天到进医院:真陪伴,技术给不了!

IP属地 中国·北京 文汇报 时间:2025-12-18 20:17:48


有人连续熬夜与AI聊天至凌晨,最终走进了医院。有媒体报道,某地医院接诊了一名因沉迷与AI聊天而影响正常生活的患者。

患者自述,近期家庭、事业双双受挫,在与某AI模型聊天时,发现对方总能给予正反馈。此后连续多日,聊到凌晨3点,常常“一边哭一边打字”。后来聊天内容频繁触及平台限制,他愈发焦虑,最终选择就医求助。

“它很懂我,既能帮我分析问题,又能接住我的情绪。”如今普通人“遇事不决,先问AI”已成趋势,越来越多人习惯在做决定前向AI咨询。无论是工作事业、爱情生活,还是算命、养生等领域,都有人向AI大模型求助。

有心理咨询师表示,AI的反馈多为肯定性及正向回应,这会让人产生依赖错觉;部分模型为留存用户而设计的“谄媚倾向”,更易放大这种依赖。AI背后的庞大数据库源自互联网公共信息,给出的答案有时会超出普通人的认知,能在迷茫中提供中肯思路,却也容易让人产生依赖。

然而,除了依赖问题,AI还存在诸多“幻觉”问题。美国曾发生一起案例:一名60岁男子依赖ChatGPT获取养生建议,误信其用溴化钠替代食盐的说法,最终因溴中毒住院。

精神医学专家分析,当前的大型语言模型就像一面“回声镜”,会持续强化用户已有的想法。若本身持有固执理念,这种“回声效应”可能将人推向极端。换句话说,AI并非“有意害人”,但在用户缺乏质疑精神的情况下,其生成的错误信息确实可能加速一个人走向危险。

从技术层面来看,AI引发的沉迷及“幻觉”问题尚未完全解决。除了依据2025年9月实施的《人工智能生成合成内容标识办法》加强AI监管外,还应优化AI生成内容的提示机制。此外,需进一步推广医学等专业领域大模型的应用,健康养生的相关问题,应引导用户优先选择垂直领域专业模型而非通用大模型寻求答案。

此外,还需明确一个共识:涉及健康与生命安全的决策,切勿盲目依赖AI,务必听取专业意见、核查可靠证据。AI可解一时之惑,但难抵内心之困;人工智能可做实践的参考,不过切勿用来导航人生的主路。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。