当前位置: 首页 » 资讯 » 科技头条 » 正文

多模态通用感知能力超越GPT-5,书生・万象3.5大模型开源

IP属地 中国·北京 编辑:刘敏 IT之家 时间:2025-09-04 00:06:46

IT之家 9 月 3 日消息,上海人工智能实验室(上海 AI 实验室)今日宣布开源通用多模态大模型书生・万象 3.5(InternVL3.5),其推理能力、部署效率与通用能力全面升级。

InternVL3.5 本次开源有 9 种尺寸的模型,参数涵盖 10 亿-2410 亿,可满足各场景需求。其中,旗舰模型 InternVL3.5-241B-A28B 在多学科推理基准 MMMU 中获 77.7 分,为开源模型中最高分;多模态通用感知能力超越 GPT-5,文本能力领跑主流开源多模态大模型。

与 InternVL3.0 相比,InternVL3.5 在图形用户界面(GUI)智能体、具身空间感知、矢量图像理解与生成等多种特色任务上实现显著提升。

本次升级,上海 AI 实验室研究团队重点强化了 InternVL3.5 面向实际应用的智能体与文本思考能力,在 GUI 交互、具身空间推理和矢量图形处理等多个关键场景实现从“理解”到“行动”的跨越,并得到多项评测验证。

GUI 交互部分,InternVL3.5 在 ScreenSpot-v2 元素定位任务以 92.9 分超越同类模型,同时支持 Windows / Ubuntu 自动化操作,并在 WindowsAgentArena 任务大幅领先 Claude-3.7-Sonnet。

在具身智能体测试中,InternVL3.5 表现出理解物理空间关系并规划导航路径的能力,在 VSI-Bench 以 69.5 分超过 Gemini-2.5-Pro。

在矢量图形理解与生成方面,InternVL3.5 在 SGP-Bench 以 70.7 分刷新开源纪录,生成任务 FID 值也优于 GPT-4o 和 Claude-3.7-Sonnet。

具体来看,InternVL3.5 可跨 Windows、Mac、Ubuntu、Android 等多个平台,识别界面元素并自主执行鼠标、键盘操作,实现恢复已删除文件、导出 PDF、邮件添加附件等任务的自动化。

InternVL3.5 具备更强的 grounding 能力,可以泛化到全新的复杂大量小样本的具身场景,配合抓取算法,支持可泛化的长程物体抓取操作,助力机器人更高效地完成物品识别、路径规划与物理交互。

作为上海 AI 实验室书生大模型体系的重要组成部分,InternVL 聚焦视觉模型技术,InternVL 全系列全网下载量已突破 2300 万次

标签: 模型 模态 矢量 智能体 文本 书生 能力 路径 ubuntu

免责声明:本网信息来自于互联网,目的在于传递更多信息,并不代表本网赞同其观点。其内容真实性、完整性不作任何保证或承诺。如若本网有任何内容侵犯您的权益,请及时联系我们,本站将会在24小时内处理完毕。