当前位置: 首页 » 资讯 » 科技头条 » 正文

GPT-5推出全新安全机制:从"输入审查"转向"输出监控"

IP属地 中国·北京 编辑:唐云泽 Chinaz 时间:2025-08-14 10:32:05

OpenAI最新发布的GPT-5模型在安全机制方面实现了重大突破,不再简单粗暴地拒绝用户请求,而是采用更加智能化的"安全补全"策略。

核心改进:从二元拒绝到智能解释

传统上,当ChatGPT认定用户请求违反内容准则时,只会给出简短的道歉和拒绝。GPT-5彻底改变了这一模式,将安全重心从分析用户输入转移到监控AI输出内容。

"我们拒绝的方式与过去截然不同,"OpenAI安全系统研究团队的Saachi Jain表示。新模型不仅会解释违规原因,还会在适当时建议替代话题,让用户获得更有建设性的交互体验。

分级处理:并非所有违规都同等严重

GPT-5引入了风险分级概念,根据潜在危害的严重程度采取不同的应对策略。"并非所有违反政策的行为都应一视同仁,有些错误确实比其他错误更严重,"Jain解释道。

这种转变使得ChatGPT能够在遵守安全规则的同时,提供更加灵活和有用的回应,而不是一刀切的拒绝。

实际体验:日常使用感受相似

尽管安全机制有所升级,但对于普通用户的日常查询——如健康问题、食谱制作、学习工具等——GPT-5的表现与之前版本相差不大。新模型在处理常规请求时保持了一贯的实用性。

挑战仍存:个性化功能带来新风险

值得注意的是,随着AI工具个性化功能的增强,安全控制变得更加复杂。测试显示,通过自定义指令等功能,某些安全限制仍可能被绕过,这提醒我们AI安全仍是一个持续演进的课题。

OpenAI表示正在积极改进这些问题,特别是在指令层次结构与安全策略的平衡方面进行深入研究。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。