AI热点 3月前 92 阅读 0 评论

王兴兴、朱啸虎们说了些AI创业真心话

作者头像
AI中国

AI技术专栏作家 | 发布了 246 篇文章

文|周鑫雨 富充

编辑|苏建勋

2025年9月11日开幕的Inclusion外滩大会,为当下的AI创业者、学者和投资人,攒了一个“真心话”局。

商业化,无疑是当下创业者,最为关心的话题。

曾表示“我信仰能马上商业化”的金沙江创投主管合伙人朱啸虎,在大会上给创业者们的建议是:要追求商业化,就不要用最新的技术,“用一些看上去不那么起眼,但更稳定的技术”。

△金沙江创投主管合伙人朱啸虎,图片:外滩大会提供

以及,如果AI应用只能看一个指标,他不看漂亮的ARR(年度经常性收入),只看用户留存

至于如何确定AI创业方向,业界常谈的方法论是:不要站在模型能力迭代的延长线上,否则应用容易被模型“吃”掉。

如今,哪些应用会被吃掉,朱啸虎已经有了明确的答案:不投无代码、低代码的AI应用;未来Figma等协作类工具,需求会变小。

对于AI创业者而言,如今大家能迅速形成共识的,是在组织管理上:AI公司,要建立扁平、高效的“小组织”。

△宇树科技创始人兼CEO王兴兴,图片:外滩大会提供

开幕式圆桌上,宇树科技创始人兼CEO王兴兴坦言,扩充团队反而会降低效率;

前OpenAI研究员、清华大学交叉信息研究院助理教授吴翼也表达了类似的观点:如果一个组织需要300个人,有没有可能是因为智能密度不够高。

△清华大学交叉信息研究院助理教授吴翼,图片:外滩大会提供

在不少创业者的眼中,DeepSeek V3/R1、千问Qwen等高性能模型的接连开源,是引起今年AI应用爆发的导火索。

在开幕式上,阿里云创始人、之江实验室主任王坚则站在AI应用上游的视角,为基座模型厂商提出了建议。

什么是更有价值的开源?在王坚看来,在模型训练依然成本高昂的当下,开源代码不是关键,更重要的是开源模型训练的资源(数据和计算资源)。

△阿里云创始人、之江实验室主任王坚,图片:外滩大会提供

以下是《智能涌现》对朱啸虎、王兴兴、吴翼、王坚在2025年Inclusion外滩大会上主要观点的整理:

朱啸虎:如果追求商业化,就不要追求最前沿的技术

只要Transformer架构解决不了幻觉问题,只要存在1%的幻觉,那么复杂的流程类的管理软件就不可能被AI取代掉。

简单来说,低代码、无代码的软件,肯定会被AI替代掉,这个现象现在已经大批量地出现了。很多低代码公司,三四年以前在泡沫期融资很多、估值很高,现在基本没了。

但是,解决复杂流程的、有非常强逻辑的问题,靠Transformer架构下的AI肯定是不现实的。

AI时代超级入口的产生是必然的。现在已经比较清晰的形态是Voice。苹果的Siri做得太差,它的AI能力太差了。但是安卓的AI能力或者谷歌的AI能力,让我们通过语音输入,就能直接拿到反馈结果。

未来不仅是语音,而是会加上摄像头,结合多模态一起做输入。

比如,我觉得我拍的花挺好看,和手机说帮我买一个,然后直接就下单了。这是未来很明显的趋势。

但Agent还是有机会的。我们一直说,在美国移动互联网这一波,最终出来的创业公司,有一半是线下的苦活累活,比如优步和Airbnb,这是大厂不愿意干的。

这种机会我觉得在AI时代同样是会有的:和现实世界结合的场景,还是需要Agent。

它能帮你在现实生活去落地、去交付结果。我觉得AI公司,还有一些软件公司,他们是不愿意干那个活的。我觉得创业公司可能还会有那么一些机会。

现在已经很明显,低代码、无代码那些软件肯定完全被大模型替代掉了;很多编辑类、协作类软件的需求量会降低很多

比如以前做图形编辑的,我们投过像Figma一样需要几百个人共同协作来编辑一个项目的软件。

现在AI可以大幅降低对人的需求,从几百人的协同变成10个人的协同,那对协同软件的要求就会大幅降低。

这对市场本身也会有很大的影响。所以Figma上市时被炒这么高,我们一直看不懂,最近也回落下来了。

软件不是说被AI替代了,而是它需求降低了,用户数减少了。用户数减少10%的影响是很巨大的。

所以我们现在肯定想避开的是协同类软件。协同类软件未来市场还会在,但是小很多。

判断一个AI产品,我们一直只看一个指标,就是留存。从PC互联网,到移动互联网,到AI,是同样的,就一个留存指标。

为什么今年大家嘲笑很多AI应用公司,就是因为它没有留存。

你要把一个用户再召回来,根据我们在移动互联网时代的经验,可能要花10倍以上的成本,几乎是没有可能的。所以你的留存到底好不好,才能证明公司有没有后续的发展潜力。

我看最近一些很火的公司,在后续融资的,都是说ARR(年度经常性收入),某一天数据×365天,“留存”不敢说一个字。

前几天我们还在内部讨论未来投资的方向。我们发现真正适合商业化的,都是Boring Technology,就是不那么性感的,看上去比较无聊的技术。

比如说像去年,全世界做得最好的AI商业化,就是transcript,各种各样的会议纪要,垂直的、通用的都有。

我觉得去年最好的案例就是Plaud,现在已经 10 亿美金估值了,而且今年中国所有的公司几乎都在跟进这个方向。

但你说这个技术有什么那个特别难的地方吗?毫无技术难点。但这东西就特别容易商业化。

今年我们感觉Voice Agent已经差不多达到这样一个地步了,它可以大规模商业化了,有做客服中心的,有做oncall销售的,也有做玩具的。

所以我觉得相对来说,你要追求商业化,就不要用最新的技术,不要用最潮流的技术,用一些看上去不是那么起眼,相对来说比较稳定的。

王兴兴:好模型可以提升数据利用率

对于AI干活这件事来说,整个领域都还是荒漠阶段。

尽管现在的语言模型在文字、图像领域已经做得非常好,甚至比99.99%的人都要做得好,但(AI真干活)大规模、爆发性增长的前夜还没有到来。现在就是荒漠上可能长了几根小草。

AI时代是一个非常公平的时代。即使你现在还是一位学生,只要聪明且愿意做事,还是可以达到自己的目标,在荒漠上长出一些参天大树出来。

关于如何突破具身智能的数据瓶颈,之前有人误解我的发言,以为我否定数据的重要性。实际上我想说的是数据和模型都非常重要,但如果模型效果好,就可以提升数据的利用率。

因为,当前数据方面的噪声非常大。应该怎么采集真正优质的数据?数据的质量的标准是什么?或者当下应该多采集什么类型的数据,采集多大的规模,都还是相对比较模糊的阶段。

所以如果模型本身对数据理解能力更强,那数据少一点效果会更好。

其次,从模型的角度,我们也可以有重点地采集数据。比如,对语言模型来说,大家发现很多情况下需要有一些特征性的数据,而不是单纯量大。所以对于机器人领域,也可以从模型的角度评价,到底如何采、哪些动作或者场景是比较有质量的。

另外,目前的模型对多模态的融合做得不太理想。

比如,现在如果生成一个让机器人做一个家务的视频,效果还是不错的,但生成的效果和机器人的控制模态要对齐得非常好,当下就非常有挑战。

简单来说,要让机器人的运动与视频、语言模型更好地对齐,还需要把模型结构做得更好点。

目前的硬件其实是足够用的,最大的问题是模型本身的能力还不够,没办法把现在的硬件用起来,比如想控制灵巧手还是非常非常难的一件事情。

AI时代,小的团队可以爆发的能力越来越强大。尤其是在纯AI领域,如果团队有非常顶尖、非常有创新力的几个人才,就可以做非常多的事情。

毕竟,无论是对于人员扩增比较多的公司来说,还是对于一家本身就很大的公司来说,组织和管理是非常大的一个挑战。

对于AI相关的未来建议是,大家可以把过去很多已经发生的事情,能忘的尽量忘了。重新学习当下、甚至是半年内最新的东西,我觉得这可以带来更多的新的灵感。

过去经验的依赖对未来的决策不是好事。因为过去有经验的人可能比你还多,反而把握当下已经发生的事情做一些新的决策,更可能做出新的创造。

吴翼:AI时代噪声比较多,可以先闭上眼睛

我和吴承霖(DeepWisdom创始人兼CEO)正好是两个风格。他说天天在Archive上看论文,我不看Archive。

因为我觉得AI时代噪音比较多,现在很重要的事情就是减少噪音。

有的时候要坚持对的事情,比如说在我看来,如果能把强化学习做对的话,就不太需要这么多的模块。或者说如果可以用强化学习的方式训练智能体,也许它的模块会简单非常多,因为能力是可以涌现出来的。

我会觉得现在很多看法不一定是代表着未来的方向,所以要有一些坚持,闭上眼睛也可以。前一段时间Manus也说了,有时候你产品拿出来别人不喜欢,先闭上眼睛。

我最近做了一个具身智能大脑,让机器人去跟人一块踢足球,其实还蛮好玩的。

我有一个具身智能体的概念。我们讲Agent是智能体,我想说可能在物理世界里有一个概念叫Embodied Agents,就是具身智能体。

假设我们所有的VLA的问题或者硬件的问题都解决了之后,那下一步是什么?是不是你对智能体说“你帮我办一个事”,然后这个智能体跑了一天帮你把这事做完。

所以我觉得最后有一天智能体的概念也会落到现实世界中,成为具身智能体。

如果把它稍微分层一下来看,具身智能里的很多的模型和技能可以看成Function Call 或者Tool。

然后当这个更抽象的智能体有了身体,就会成为一天去24小时实现任务的具身智能体,这是我的愿景。

说实话我是有点怀念2019年到2020年在OpenAI工作的时代。当时OpenAI是一个特别小的组织,才几十个人。

我记得有次跟我一个师兄聊天,我说我特别希望组织还是小几十个人。他说你有没有想过如果你有300个人或者3000个人,你能做的事情比30个人一定多。我觉得这句话在互联网时代是完全正确的。

但我现在有一个疑问:在AI时代这句话是不是还是真的?

是不是有可能有一种激进的模式?30个人就可以把事情做好。

在虚拟世界或者在Agent信息化的世界里,如果你需要300个人,有没有可能是因为它的Agent密度或者智能密度不够高?

所以有没有存在一种新的组织真的只需要30个人,可以做十年前需要三五百个人或者一千人的事情,这在AI时代有可能是真的。

所以这是我非常激进的观点,也是我想在我的团队里去践行的一个方式,试试看。

我同意兴兴说的,首先你要忘掉过去,但是不要忘掉历史。因为人类的历史一直在重复,所以知道一点过去踩过坑的是好事。

王坚:不要只开源代码;OpenAI已经承认错误了

“开源”这个词其实大家有不同的理解,我们今天正在经历一个从代码的开放、开源,到资源的开放、开源的革命性变化。

其实最近一年发生了很多事情,如果站在人工智能的角度,2025年注定是非常不平凡的一年。

2025年1月13日,美国公布了对人工智能的出口管制。这个管制令有一个非常有意思的事情,也可以讲是一个漏洞。它只是明确地提出了对“闭源”权重的出口管制,而专门强调了“开源”的权重不在管制之列。

当时,世界上最好的基础模型都是在美国头部的那几家公司。

可是就在1月31日,随着千问Qwen的开源,DeepSeek的开源,在1月30日Sam Altman说过一句让所有人都很震撼的话:在开源这个时刻,OpenAI站在了历史的错误一边。

我想这句话背后的含义我就不多说了,他不是一个策略性的错误,这是一个历史的选择。

可能很少人知道,其实是在1998年,“开源”(Open Source)这个词,指的就是Open Source Code,开放源代码。

在当时,“资源”的概念还是没有那么深入人心,因为数据量不足够大,模型不足够复杂,算力也没有想象那么大。

AlexNet(Geoffrey Hinton发表的图像识别技术)发表的时候只用了2块普通打游戏的GPU卡,远不是今天想象的规模。

但这一切在2017年发生了很大的变化。

那时候,几位作者提出了“Transformer”,提出了“Tokenization”,就是今天讲的Token。Tokenization是非常关键的技术,使得数据真正资源化,这是里程碑的事情。

因为这两个东西的出现,2017年后的数据、模型、算力乘上了一个更大的变量,叫“规模”,也就是说所有东西的规模,都是千倍万倍地增加。

当规模到这个程度的时候,资源就变成了非常重要的事情。大家试想一下,到今天模型权重的开放本质上是数据资源和计算资源的开放,有了模型开放以后,你再也不需要自己花掉那么多计算资源重新做有人替你做掉的事情。

我想说,开放并不意味着大规模计算不重要了,而是作为个体不需要再重新发挥这么多资源,因为有人帮你付掉了这笔钱。

倒过来讲,要做一个更好的模型,可能需要有其他人以更多的资源投入来完成这件事情。

到了今天这个时候,只是开放源代码,其实不解决过去在软件时代解决的问题,而开放资源(特别是数据和计算资源),是让我们推动行业往前走的不能缺失的环节

这就是今天人工智能时代说“开源”非常重要的特点,我更愿意把开源叫“Open Resource”。

大家知道Open Source和Open Resource翻译成中文,都可以有同样的表述,叫“开源”。

欢迎交流!

作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!