AI热点 4月前 157 阅读 0 评论

理想揭秘MindVLA大模型:一个能看到、听到、做到的专职司机

作者头像
快科技

AI技术专栏作家 | 发布了 246 篇文章

快科技3月21日消息,3月18日,理想汽车在NVIDIA GTC 2025大会上推出了新一代自动驾驶技术MindVLA 大模型。

那么理想MindVLA大模型就究竟是什么?

理想汽车介绍,这个模型结合了视觉、语言和行为三大智能,开创了机器人大模型的新范式。

通俗来说,MindVLA可以理解为一个能够看到、听到并且做到的系统。

对于用户而言,MindVLA让车不仅仅是一个交通工具,而是一个能够听懂用户说话、看懂用户需求并帮助解决问题的专职司机”。

对于汽车行业来说,MindVLA的出现可能会像当年的iPhone4一样,重新定义未来的出行方式。

在人工智能领域,MindVLA的到来将使车成为连接物理世界和数字世界的桥梁,这种技术可能会应用到更多领域,进而改变我们的生活。

MindVLA预计将在今年7月份与理想i8同时首发,具体信息以官方公布为准。

配备AD Max系统的车辆可以提供高级辅助驾驶和全场景NOA的功能,除了能够运行目前的端到端 VLM大模型之外,也将支持今年后续会推出的更强大的MindVLA大模型。

(举报)

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!