当前位置: 首页 » 资讯 » 科技头条 » 正文

GDIRI观察 | 聚千万开发者,科大讯飞能否突围自主AI应用战?

IP属地 中国·北京 编辑:陆辰风 观点新媒体 时间:2026-01-15 22:20:31

观点指数(GDIRI) 近日,科大讯飞董事长刘庆峰披露,公司开发者团队规模突破1000万,较上一年度新增200万。其中50%与工业领域存在直接关联,同期海外开发者数量突破50万。

在全国算力平台上,国产大模型在参数小一倍的情况下可对标国际领先水平,自主可控的AI基础设施已初步成型。然而受算力资源供给限制,当前国内AI领域的算力训练,在成本管控与运行效率两个维度,仍面临较大的挑战。

与此同时,科大讯飞2025年前三季度归母净利润为-0.67亿元,同期研发费用达31.88亿元,同比增长4.97%。受国产算力训练环节投入的影响,公司在该领域的成本投入持续处于高位。

整体来看,科大讯飞的国产化探索仍任重道远,但依托已成型的AI应用生态与技术积累,其在行业技术迭代进程中,仍具备在AI产业发展浪潮中实现突破的潜力。

AI应用抓手

作为AI应用的核心参与者,科大讯飞凭借讯飞开放平台构建起产业生态底座,该平台以智能语音和人机交互技术为核心,已突破1000万开发者团队。

公开信息显示,平台上线AI产品及能力872项,累计孵化应用超过368.4万款,覆盖终端设备数超过42.6亿,为场景化落地奠定生态基础。

从AI教育赛道起步,公司逐步拓展至AI医疗、政务、工业等多领域的应用布局。

其智慧教育产品已覆盖全国33个省级行政区,服务5万余所学校、超1.3亿师生。依托星火教育大模型构建的“师-生-机”三元课堂,覆盖5.8万所学校,服务超1700万师生,开展教学5000万余次,互动学习超40亿次,虚拟人问答超353万次。

医疗场景的AI赋能同步提升。基于星火医疗大模型,其智医助理已覆盖全国801个区县,累计提供11亿次辅助诊断服务,讯飞晓医完成超1.6亿次AI健康咨询。目前已突破执业医师资格考试基础门槛,在门诊场景的诊断准确率达93.1%。

AI政务方面,在第八届数字中国建设峰会现场,科大讯飞携AI政务办公助理、AI政务导办数字人、AI政务综窗助理、AI数字社工、讯飞智水大模型、文旅大模型、政务大模型等一批成果亮相体验区,解锁城市智慧生活新体验。

工业领域的AI探索同样稳步推进。2025世界制造业大会上,科大讯飞携十大AI工业产品矩阵亮相,包括AI工业内窥镜、AI声学成像仪、多语种AI透明屏、具身智能采训推一体机等,展现人工智能与制造业深度融合的应用场景。

星火大模型实现了训练与推理全流程的自主可控,涵盖供应链上下游的国产化布局。计算基础设施方面,科大讯飞与华为合作,基于昇腾NPU构建算力平台,并配套建设AI数据湖存储系统。

在终端侧,公司持续孵化聆思科技提供智能终端SoC芯片。同时,公司与穹天科技合作,推出了自主IP占比较高的Castor系列AI芯片。

生态构建与商业落地模式上,讯飞开放平台的核心特色在于并非单纯提供模型租赁服务,而是聚焦行业深度需求,与行业龙头企业共建定制化模型,深入业务场景打造“开箱即用”的智能体,形成差异化的商业竞争力。

不过,从技术参数维度来看,星火模型与主流通用大模型仍存在一定的差距。

参数规模方面,星火模型总参数量为2930亿,显著低于GPT-5(传言1.8万亿)和DeepSeek-V3/R1(6710亿);激活参数300亿,也少于DeepSeek-V3/R1的370亿,而参数规模直接关联模型知识容量与复杂模式识别能力,将会限制其在高难度推理、复杂任务处理中的表现。

上下文长度支持上,星火模型128K的上下文窗口虽可满足常规长文本处理需求,但相较于GPT-5的400K和豆包模型的256K仍有不足,在超长文档分析、推理速度、多轮长对话等场景上的灵活性受到限制。

值得关注的是,星火模型单次推理能耗仅1.1Wh/1000token,远低于其他主流通用模型,这种低能耗特性使其在大规模部署时能有效降低运营成本,具备突出的实用经济性,也成为其在应用场景中竞争的重要优势。

国产算力成本

在AI应用行业商业化进程持续推进的背景下,科大讯飞经营规模呈现稳步扩张的态势。财务数据显示,2025年前三季度,该公司营业总收入达169.89亿元,同比增长14.41%,营收增速延续2024年以来的回升走势。

盈利表现上,2025年前三季度公司归母净利润亏损0.67亿元,同比大幅减亏80.60%,此前盈利水平波动且持续亏损,反映了公司具备改善盈利能力的积极迹象。

与此同时,科大讯飞近5年的研发费用投入保持稳定,2025年前三季度研发费用31.88亿元,同比增长4.97%,对比上年度11.81%的增速有所放缓。该研发费用占当期营收的比例达18.8%,仍处于较高水平。

科大讯飞董事长刘庆峰表示,过去几年在算力资源受限的情况下,公司为持续优化星火大模型的训练及推理成本效率,投入了巨大精力。

与直接使用英伟达卡上开展的各种工程优化不同,科大讯飞选择了更难的全国产算力路线。然而,国产芯片在性能指标及适配大模型参数上存在一定局限性。

根据《中国AI:评估中国AI芯片的供需规模》研究报告显示,当前国内主流AI芯片中,单卡总处理性能(TTP)最高的华为昇腾910C芯片,其性能不到英伟达NvidiaB300芯片20%。同时,英伟达芯片迭代速度较快,从B100到B300,产品性能实现了翻倍提升。

2026年1月13日,市场传出英伟达H200芯片获得美国政府许可进入中国市场的消息。相较于此前入华的H100芯片,H200性能提升幅度接近一倍,在算力性能层面形成对国产芯片的代际优势。

面对国产芯片的性能短板,国内多数相关企业通常采用万卡集群的建设方式弥补算力不足,但该模式存在能耗偏高、空间占用量大、软件系统协调难度较高等问题,进而推高企业在时间及经济层面的综合成本。

基于上述因素,目前国内AI领域的算力训练环节,在成本控制及运行效率等方面,仍面临较大挑战。全国产化算力模型的研发及供应链自主化建设,依然面临多重现实层面的考验。

从发展优势来看,科大讯飞已构建起覆盖多行业的AI应用生态体系,其技术成果在教育、医疗等领域的规模化落地,验证了相关技术的场景实用性。

星火大模型所具备的能效优势,也为全国产算力路线的成本管控提供了支撑条件,而盈利状况的持续修复,也为公司技术研发及供应链建设提供了更稳定的资金保障。

从现存挑战来看,国产芯片性能与国际顶尖产品的差距、大模型参数规模不足导致的复杂任务处理能力短板,仍是制约公司技术迭代及市场拓展的核心因素。

未来,科大讯飞能否通过持续的研发投入,实现国产算力与大模型性能的双重突破,并进一步将核心技术优势转化为市场竞争力,仍有待跟踪观察。

免责声明:本文内容与数据由观点根据公开信息整理,不构成投资建议,使用前请核实。

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。