AI热点 2小时前 111 阅读 0 评论

高德宣布 TrafficVLM 模型“重磅升级”:预知超视距路况,AI 带来“天眼”视角

作者头像
AI中国

AI技术专栏作家 | 发布了 246 篇文章

IT之家 9 月 19 日消息,今天傍晚,高德通过官方公众号宣布实现 TrafficVLM(IT之家注:交通视觉语言模型),可助力用户实现全局交通掌控,提升驾驶体验。

根据介绍,在现代交通环境中,驾驶者常常面临信息盲区的挑战:在复杂的路口穿梭时,只能看到眼前的车流,却无法预知百米外哪个车道即将拥堵;在畅通的高速上行驶时,却难以预见前方因轻微刹车而引发的“幽灵堵车”。这些局部视角的限制,使得驾驶者难以做出最优的决策。因此,TrafficVLM 模型此次升级即是为了应对上述难题。

依托空间智能架构,全新升级的 TrafficVLM 可以为用户带来“天眼”视角。其能让用户全面了解全局交通状况,从而在复杂环境中做出更优决策。据悉,其能够赋予每位驾驶者“全知视角”的能力,在面对路口或高速时,不再受限于局部视野,从而更直观预知前方路况,从容应对潜在风险。

例如,在用户前方 3 公里的主干道上,左侧车道因一起突发追尾事故而形成新堵点,即时 TrafficVLM 会通过实时孪生交通感知到这一异常,且推理识别出事故点并洞悉其发展趋势:拥堵或将快速蔓延,形成一个长达 3 公里的拥堵路段。依托 TrafficVLM,高德可在用户到达拥堵点之前,及时推送通行建议:“前方三公里突发事故,大量车辆向右并线,推荐您提前靠右行驶,注意避让应急车辆。”

通过云端调度系统的快速响应,系统在拥堵发生时即刻下发观测指令,调取第一现场的视觉数据,并基于图像中的深度信息进行智能分析,精准还原拥堵点位的空间结构与交通态势。

据介绍,这意味着用户不仅能直观看到“前方堵车”,更能清楚理解为何需要变道、何时该减速,以及拥堵的真实成因与范围。这种从被动接收提示到主动洞察全局的转变,让用户摆脱了“盲人摸象”般的局限,实现对复杂路况的可视化、可感知、可预判的智慧导航体验。

该模型以视觉语言模型通义 Qwen-VL 为底座,基于高德海量、高度还原的交通视觉数据,完成了强化学习和数据训练。

广告声明:文内含有的对外跳转链接(包括不限于超链接、二维码、口令等形式),用于传递更多信息,节省甄选时间,结果仅供参考,IT之家所有文章均包含本声明。

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!