近日,OpenAI 宣布正式上线了一款全新的轻量级模型 ——GPT-5Codex Mini。该模型专注于提供更高效且成本更低的代码生成能力,旨在为开发者提供更灵活的选择。与此同时,OpenAI 还扩大了 Codex 的使用额度,允许用户在现有的订阅计划和积分体系下获取更多的调用量。
在服务层级的调整方面,OpenAI 也带来了显著的变化。针对 ChatGPT Plus、Business 和 Edu 用户,速率限制提升了约50%,这意味着用户在处理请求时将体验到更流畅的服务。而对于 ChatGPT Pro 和 Enterprise 用户,他们将享有优先处理的待遇,进一步缩短响应时间,确保关键时刻不掉链子。
OpenAI 还建议开发者在处理简单的软件工程任务或即将达到调用率限制时,选择使用新发布的 GPT-5Codex Mini 模型。当用户的调用量接近配额的90% 时,Codex 会智能推荐切换到这个新模型。GPT-5Codex Mini 现已支持命令行界面(CLI)和集成开发环境(IDE)的扩展,API 接口也将很快开放,便于更多开发者的使用。
在这次更新中,OpenAI 团队对 Codex 的底层进行了优化,确保开发者在使用过程中的体验更加一致。在此前的版本中,实际调用量可能受到流量负载和路由分配的影响而波动,而这次的优化措施有效解决了这一问题,让用户能够在一天的工作中保持稳定的服务体验。
OpenAI 的这一系列更新,无疑为开发者提供了更多选择和更高效的工作方式,进一步推动了 AI 在编程领域的应用。





京公网安备 11011402013531号