当前位置: 首页 » 资讯 » 科技头条 » 正文

大模型时代,OpenAI的算力成本控制成关键胜负手

IP属地 中国·北京 编辑:钟景轩 ITBEAR 时间:2025-09-04 04:06:12

在人工智能领域,算力成本控制已成为大模型行业发展和商业化的关键所在。这一趋势在年初DeepSeek在国外开源社区的火爆中得到了鲜明体现,其通过将同性能模型的推理和训练算力成本降低至10%以内,迅速引起了业界的广泛关注。随后,GPT-4的发布进一步推动了MoE架构的普及,这一架构因其能有效降低模型推理的算力成本,几乎成为了所有大模型开发商的默认选择。

然而,即便是在这样的技术背景下,OpenAI在GPT-5发布时推出的“路由(routing)”功能却遭遇了前所未有的挑战。这一功能旨在根据问题的复杂程度,将用户请求匹配到不同消耗级别的模型上,以提升用户体验和算力效率。然而,在实际应用中,路由功能却未能准确匹配用户预期与模型能力,导致GPT-5在发布初期就饱受争议。尽管OpenAI随后回滚了部分更新,并允许用户在推理模型和基本模型间手动切换,但GPT-5的发布依然被部分网友视为一次“降本增笑”的尝试。

那么,为何OpenAI仍要冒着风险推出这一功能呢?原因或许可以从两个方面来解释。首先,随着OpenAI推出的模型数量不断增加,用户在选择合适模型时面临着越来越大的困难。特别是对于没有接触过大模型的普通用户来说,替他们针对不同任务选择合适的模型,成为了OpenAI必须解决的问题。其次,从算力成本的角度出发,推理模型与非推理模型之间的算力差异巨大,如何高效调配这种“深度思考”能力,直接决定了大模型产品对算力的使用效率。因此,路由功能的推出,对于OpenAI来说,不仅是为了提升用户体验,更是为了降低算力成本,保持商业模式的可持续性。

然而,为大模型打造一个高效的路由功能并非易事。这一功能本质上是一个“多目标+强约束”的工程问题,需要在质量、延迟、成本、配额/峰值容量、成功率等多个维度之间做实时优化。外媒曾就此问题向UIUC的一名计算机专业的助理教授求证,得到的回答是这一问题的解决难度可能相当于构建一个亚马逊级别的推荐系统,需要大量专家数年时间的努力。

在实际应用中,路由功能的挑战也显而易见。即便是DeepSeek这样的国内顶尖大模型团队,在将“推理-非推理”选择功能内置到模型内部后,也遇到了模型稳定性方面的问题。而OpenAI在GPT-5上推出的路由功能同样遭遇了翻车,这从侧面反映了处理这一问题的难度之大。

尽管面临诸多挑战,但算力成本控制依然是大模型行业不可忽视的重要方向。随着AI技术的不断发展,模型能够处理的任务将更加多样与复杂,从而进一步推高对算力的需求。为了应对这一挑战,OpenAI正在积极推进代号为Stargate的基础设施扩张计划,并计划在印度等地设立数据中心,以提高本地算力配置能力。同时,对于能够有效降低模型算力需求的“路由”功能的研究也在不断深入。

在大模型时代,高效调度“深度思考”的能力某种程度决定了大模型公司能否在系统和商业效率以及用户体验上领先全行业。因此,对于所有大模型公司来说,不断提升“算力兑换智力”的效率,将始终是追求的最终极标准。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。