AI热点 1天前 113 阅读 0 评论

多模态通用感知能力超越 GPT-5,上海 AI 实验室开源书生・万象 3.5 大模型

作者头像
AI中国

AI技术专栏作家 | 发布了 246 篇文章

IT之家 9 月 3 日消息,上海人工智能实验室(上海 AI 实验室)今日宣布开源通用多模态大模型书生・万象 3.5(InternVL3.5),其推理能力、部署效率与通用能力全面升级。

InternVL3.5 本次开源有 9 种尺寸的模型,参数涵盖 10 亿-2410 亿,可满足各场景需求。其中,旗舰模型 InternVL3.5-241B-A28B 在多学科推理基准 MMMU 中获 77.7 分,为开源模型中最高分;多模态通用感知能力超越 GPT-5,文本能力领跑主流开源多模态大模型。

与 InternVL3.0 相比,InternVL3.5 在图形用户界面(GUI)智能体、具身空间感知、矢量图像理解与生成等多种特色任务上实现显著提升。

本次升级,上海 AI 实验室研究团队重点强化了 InternVL3.5 面向实际应用的智能体与文本思考能力,在 GUI 交互、具身空间推理和矢量图形处理等多个关键场景实现从“理解”到“行动”的跨越,并得到多项评测验证。

  • GUI 交互部分,InternVL3.5 在 ScreenSpot-v2 元素定位任务以 92.9 分超越同类模型,同时支持 Windows / Ubuntu 自动化操作,并在 WindowsAgentArena 任务大幅领先 Claude-3.7-Sonnet。

  • 在具身智能体测试中,InternVL3.5 表现出理解物理空间关系并规划导航路径的能力,在 VSI-Bench 以 69.5 分超过 Gemini-2.5-Pro。

  • 在矢量图形理解与生成方面,InternVL3.5 在 SGP-Bench 以 70.7 分刷新开源纪录,生成任务 FID 值也优于 GPT-4o 和 Claude-3.7-Sonnet。

具体来看,InternVL3.5 可跨 Windows、Mac、Ubuntu、Android 等多个平台,识别界面元素并自主执行鼠标、键盘操作,实现恢复已删除文件、导出 PDF、邮件添加附件等任务的自动化。

InternVL3.5 具备更强的 grounding 能力,可以泛化到全新的复杂大量小样本的具身场景,配合抓取算法,支持可泛化的长程物体抓取操作,助力机器人更高效地完成物品识别、路径规划与物理交互。

作为上海 AI 实验室书生大模型体系的重要组成部分,InternVL 聚焦视觉模型技术,InternVL 全系列全网下载量已突破 2300 万次

IT之家附开源地址:

  • 技术报告链接:https://huggingface.co/papers/2508.18265

  • 代码开源 / 模型使用方法:https://github.com/OpenGVLab/InternVL

  • 模型地址:https://huggingface.co/OpenGVLab/InternVL3_5-241B-A28B

  • 在线体验链接:https://chat.intern-ai.org.cn/

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!