产品评测 2小时前 71 阅读 0 评论

体验完 Meta 最新的 AI 眼镜,我想把买 iPhone 17 的预算留给它

作者头像
AI中国

AI技术专栏作家 | 发布了 246 篇文章

哇,整个这个眼镜戴上去的感觉太科幻了!


这是我戴上 Meta Ray-Ban Display 的第一反应。说实话,从看到去年 Meta Orion 样机的表现之后,我的期待值原本没有特别高,但真的把 Display 戴在头上,我突然觉得这个行业有戏


在 Meta Connect 2025 发布会上,这副售价 799 美元的「带屏智能眼镜」终于揭开面纱。它是 Meta 首款支持显示功能的智能眼镜,通过右眼的彩色光波导 HUD 和配套的 Neural Band 腕带,把「脸上的 AI」从概念变成了现实。



与 Orion 样机类似,Display 采用的显示技术是彩色光波导,这种仅依靠光线在载体内反复折射、将画面反射到镜片中间的技术是目前 AI 眼镜最主流的显示方式。但 Meta 实现了一项很特殊的指标:低至 2% 左右的漏光率。


也就是说 HUD 点亮时,你对面的人完全看不到光波导的反射和漏光,不像是今年早些时候谷歌推出的 XR 眼镜样机那样会有一个明显的反射区域:



@梦雅Myra 佩戴的 Display,在类似的角度不会出现明显的屏幕漏光


即使我的朋友站在对面,在屏幕完全点亮时也完全察觉不到。只有从侧面角度,才能看到几排光波导屏幕导线的反光。


只不过,根据外媒 TheVerge 的上手体验,Meta 这块过于透明的屏幕也有一些弊端:由于和你对话的人完全看不到你在看什么东西,可能会感觉你有点心不在焉、视线没有集中在人身上。


至于实际的屏幕显示效果,Display 这块光波导屏幕亮度足足有 5000 尼特,搭配默认标配的光致变色镜片,在光线过强的户外镜片会变成墨镜片,可读性依然非常优秀。


单眼显示与神奇的 Neural Band


之前我一直担心单眼显示会不会很奇怪,但实际体验完全打消了这个顾虑。我已经连续使用了一个多小时,最明显的感受是它可以跟现实世界无缝融合


虽然 Display 仅有一块位于右侧的屏幕,但它的单眼显示效果与环境融合的很好,因为屏幕的位置和视场角(FOV)都设计的比较低,在直视的时候屏幕的显示区域会落在对方的胸口处,几乎和电影的字幕是完全一样的。



因为扎克伯格比对方矮,需要低头对话


这块 600×600 像素的屏幕虽然面积不大,但能做的事情跟手机很像,换句话说,整个显示界面的设计和逻辑完成度都非常高,几乎不会有使用时不知所措的情况。


比如我用它看 WhatsApp 和 Messenger 消息,整个对话流其实是可以完整显示出来的。通过手指上下滑动翻页,再用语音转文字回复的过程也非常流畅。我甚至在想,真的可以很长时间不用把手机从兜里掏出来了



而作为 Display 的主要操控方式,配套的 Neural Band 腕带更是改变了游戏规则。


虽然和苹果 Vision Pro 一样都可以通过手指手势操控,但 Display 并不依赖摄像头,而是借助腕带读取手腕的肌电信号(EMG)来识别的,也就是说你的手可以放在身体两侧、背在身后、甚至藏在口袋里,手势依然能被准确识别


Neural Band 的主要操作方式包括双击中指点亮屏幕、单击中指退出、单击食指确定、旋转手腕放大,以及用拇指在食指上滑动翻页等等。虽然需要一点学习时间,但是掌握难度并不高,灵敏度也是很优秀的。



而 Display 用来处理输入的方式则更加有趣。除了通过耳机上的 6 麦克风阵列做语音输入之外,你其实还可以戴着 Neural Band 直接在平面上写字,腕带会结合肌电信号和陀螺仪识别手写的字母,就像扎克伯格在发布会演示的这样:



扎克伯格在采访中透露了一个有趣的细节:他已经能用这个系统达到每分钟30个单词的打字速度,几乎一整天都在用眼镜收发消息。他的高管们甚至能分辨出哪些消息是用眼镜发的——比如那些长度更短、但是秒回的信息。


更重要的是,扎克伯格认为 Neural Band 的潜力远不止于此:


虽然)我们发明 Neural Band 是为了配合眼镜使用,但我认为它最终可能成为一个独立的平台。未来,它不仅能通过思维实现个性化自动补全,还可能成为控制其他设备甚至智能家居的方式。


那些真正打动我的功能


如果说戴着 Neural Band 虚空写字像是变成了钢铁侠一样,那眼镜里的实时字幕功能让我感觉获得了超能力。


唤醒的方式很简单,说一句「Hey Meta, turn on live captions」,对面人口中的英语就会实时显示在屏幕上。在嘈杂环境里,Display 甚至能准确识别你正在看的那个人的声音,多个人同时说话也不会混淆。



并且得益于前面提到过的屏幕位置,戴着 Display 看实时字幕的方式,简直就是把眼前的现实变成了看电影。


虽然核心软件仍依赖手机连接,但这远不只是一个通知镜像。你可以发送文字、接听音视频电话、显示正在播放的音乐、获取逐向导航指引、查看相机取景,还能运行 Meta AI 识别眼前的物体。



发布会上演示的 LiveAI实时视觉识别场景


Meta 的 CTO Bosworth 强调:清晰的文字渲染是让AI变得有用的关键——如果 AI 只能语音回复,你获得的信息就有限。而当你提问后它能直接显示答案,这样不仅更直观,也更私密。


这种基于「你能看到结果」的确定感是普通版 Meta Ray-Ban 智能眼镜的纯语音交互无法给予的,并且在实际生活里,语音唤醒 AI 助手在很多场合是不太方便的,Display 语音/手势/视觉混合交互就不会有这种问题。



在体验 Display 的时候,我试着用 Meta 的 AI 功能识别了一幅画。Display 不只是语音回答,还在屏幕上显示了相关的信息卡片,信息密度相比纯语音交互(等 AI 慢慢念完)也更高一些。


这块小屏幕甚至可以用来预览相机画面,以及看视频——虽然 FOV 很小,但画面大小刚好,细节都能看清。如果朋友发来视频链接,你可以直接在眼镜上打开查看并快速回复,整个过程不用掏手机


总之 Meta Ray-Ban Display 体验下来,我觉得这副眼镜的核心价值有三点:


  • 增大信息密度:哪怕只有一两行字的显示,获取的信息也比纯音频多得多


  • 给予确定感:能看到具体的界面、动画和菜单选项,让眼镜的操作更有把握


  • 成为 AI 的通路:AI 能看到你所见,你也能看到它的反馈,让 AI 更无缝地融入日常生活


这可能真的是下一个 iPhone 时刻


扎克伯格在访谈中的判断很明确:


眼镜将是下一个计算平台。这是唯一能让 AI 看到你所见、听到你所听、全天候与你对话的设备。


全球有 10-20 亿人日常佩戴眼镜。五到七年后,这些眼镜中的大部分会不会都变成某种形式的 AI 眼镜?扎克伯格说:我觉得这就像 iPhone 出现时,大家都还在用翻盖手机,但变成智能手机只是时间问题



Meta 瞄准的是「优化主义者」和「追求生产力的人」。虽然初期产量只有几十万副,但 Bosworth 预测「我们生产多少就能卖多少」。扎克伯格也暗示,真正的利润不会来自硬件本身,而是「来自人们长期使用AI和其他服务」。


体验结束后,我最大的感受是:Display 不再是概念产品或开发者玩具,而是真正可以日常使用的工具


虽然 799 美元不算便宜(一台 iPhone 17 也是这个价),20 度的 FOV 和 600×600 的屏幕也不算大,但这些都不妨碍它成为我用过最接近理想的智能眼镜。



我觉得 Meta Ray-Ban Display 的目标很明确——减少掏出手机的次数,把那些快速查看和回复的操作都通过眼镜完成。从这个角度说,它确实做到了。


或许正如扎克伯格所说,这就像智能手机替代功能机的时刻。智能眼镜的技术拐点已经到来,只是还未完全普及。而 Meta Ray-Ban Display,可能就是这场变革的开始,可能就是下一个 iPhone 时刻。



文章来自于微信公众号 “APPSO”,作者 “APPSO”

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!