当前位置: 首页 » 资讯 » 科技头条 » 正文

主流聊天机器人传播虚假信息风险加剧,研究显示情况堪忧

IP属地 中国·北京 编辑:顾雨柔 Chinaz 时间:2025-09-15 10:23:08

Newsguard 最近发布了一项研究,显示截至2023年8月,十大生成式 AI 工具在处理实时新闻时,有高达35% 的概率传播虚假信息。相比去年8月的18%,这一数字几乎翻了一番。研究指出,这一虚假信息传播率的显著上升与 AI 聊天机器人引入实时网络搜索功能密切相关。随着拒绝回答用户问题的比例从31% 降至0%,AI 开始接入一个充满不实信息的网络生态系统,导致虚假信息的传播现象愈加严重。

图源备注:图片由AI生成,图片授权服务商Midjourney

该研究发现,许多不良行为者利用 AI 的特性故意散布虚假信息。去年,Newsguard 就曾标记出966个以16种语言运营的 AI 生成新闻网站,这些网站通过模仿正规媒体的名称,如 “iBusiness Day”,向公众传播假消息。具体来看,Inflection 公司的 AI 模型传播虚假信息的概率最高,达到了56.67%;而 Perplexity 模型也不容乐观,出错率为46.67%。ChatGPT 和 Meta 的 AI 模型则各自为40%,而 Copilot(微软必应聊天)和 Mistral 的虚假信息传播率为36.67%。表现最好的两款模型是 Claude 和 Gemini,错误率分别为10% 和16.67%。

值得注意的是,Perplexity 的表现大幅下滑,去年8月时该模型对虚假信息的揭穿率达到100%,然而到今年8月,这一概率接近50%。引入网络搜索功能的初衷是解决 AI 回答内容过时的问题,但却引发了新的挑战。这些聊天机器人开始从不可靠的来源获取信息,使得用户在判断事实与假消息时愈发困难。

Newsguard 指出,早期的 AI 通过拒绝回答问题来避免传播虚假信息的风险,但如今网络生态中虚假信息泛滥,辨别真伪愈发复杂。OpenAI 也承认,当前的语言模型总是可能产生 “幻觉内容”,即虚假或无根据的信息。该公司表示正在研发新技术,力图让未来的模型能够更好地提示不确定性,而不是笃定地生成虚假信息。

划重点:

-

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。