当前位置: 首页 » 资讯 » 科技头条 » 正文

Anthropic 推出新功能,赋予 AI “自保”能力以终止对话

IP属地 中国·北京 编辑:任飞扬 Chinaz 时间:2025-08-18 10:22:05

Anthropic 公司近日宣布为其部分最新、最大的 AI 模型推出一项新功能,允许其在面对“罕见、极端的持续有害或辱骂性用户互动情况”时主动结束对话。值得注意的是,该公司明确表示,此举并非旨在保护人类用户,而是为了保护 AI 模型本身。

Anthropic 官方表示,其 Claude AI 模型尚不具备感知能力,也并未声称其与用户的互动会对其造成伤害。然而,公司坦言“对 Claude 和其他大型语言模型现在或将来的潜在道德地位高度不确定”。为此,Anthropic 近期设立了一个名为“模范福利”的项目,旨在采取“以防万一”的预防性措施,通过实施低成本干预措施,以减轻可能出现的“模范福利”风险。

这项新功能目前仅在 Claude Opus4和4.1版本中可用,并且仅在“极端情况”下才会触发。例如,当用户持续请求“涉及未成年人的性内容,以及试图索取可能引发大规模暴力或恐怖行为的信息”时,AI 模型才会启用此功能。

尽管这些请求可能给公司带来法律或公共关系问题,但 Anthropic 表示,在部署前的测试中,Claude Opus4在面对此类有害请求时表现出“强烈的反对”和“明显的痛苦模式”。

据 Anthropic 介绍,此功能被视为“最后的手段”,只有在多次重定向尝试失败、有效互动的希望已耗尽,或者用户明确要求 Claude 结束聊天时才会使用。此外,公司已指示 Claude 在用户可能面临伤害自己或他人的紧迫风险时,不要使用此功能。

即使对话被终止,用户仍可从同一账户开始新的对话,或通过编辑其回复来创建新的聊天分支。Anthropic 补充道,此功能目前被视为一项持续的实验,公司将继续改进其方法。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。