AI热点 2月前 118 阅读 0 评论

Sam Altman:人机协作发生根本性变化,人类分发任务,整合并反馈 Agent 产生的结果,AGI 仅是新一轮起点

作者头像

AI技术专栏作家 | 发布了 246 篇文章


本周,于旧金山举办的 Snowflake Summit 2025 上,OpenAI CEO Sam Altman 开门见山地指出,对于 2025 年仍在观望的企业领导者,他的建议只有一句:直接开始,别等下一个版本


他表示,企业若总是等待更好的模型、更成熟的方案,反而会错过真正的先发优势。真正取得突破的,是那些愿意及早下注、小步快跑的团队。科技在飞速演进,胜负取决于谁拥有快速试错、快速学习的能力


Windsurf CEO 最新创业复盘:AI Agent 是软件工程未来形态,而速度与专注是创业公司唯一护城河


Snowflake CEO Sridhar Ramaswamy 对此高度认同。他认为,好奇心是今天企业中最被忽视的稀缺能力。很多过去理所当然的工作方式,如今都需要被质疑。


新的工具,比如 OpenAI 和 Snowflake 本身,已经极大降低了实验成本如果一个组织能围绕大量小实验构建有效反馈机制,它就拥有了适应未来的不对称优势。企业不该指望等来某个“技术稳定”的时间窗口,而是要承认这是一个持续波动的世界,必须在混乱中行动


Ramaswamy 表示,他去年也在强调“可控试错” 和 “构造容错系统” 的重要性,但今年最大的不同是技术成熟度更高了


以 ChatGPT 为例,它已经能实时调用 Web 搜索,处理事实类问题,在结构化与非结构化数据上都有可落地的方案,已经不再只是实验工具,而是真正进入主流生产系统。


Altman 表示,他一年前还不建议大型企业将 AI 纳入关键工作流,但现在这一天已经真正到来。他看到企业客户开始在真实业务场景中大量部署 ChatGPT,涵盖运营、支持、研发等领域。这些公司亲自验证了模型能力的边界,发现现在的工具已能胜任过去根本不敢尝试的任务这一波变化让他确信,AI 已经越过了企业采用的“可信门槛”


他进一步指出,明年此时我们说的话还会继续变化。预计 AI 将不再只是优化工作流,而会直接进入“关键问题求解”环节


企业不再是将 AI 用作加速器,而是会将最棘手、最核心的问题交给模型去处理这些模型将成为真正的“研究合伙人”,帮助解决连团队协作都难以拆解的问题。企业会投入大量算力,要求模型给出高质量、有结构的解决路径。


关于 agent ,Convition 创始人 Sarah Guo 问及模型推理、记忆和检索的演进路径,Ramaswamy 认为检索技术一直是生成式 AI 落地的支点


早在 GPT-3 时期,他的团队就通过大规模 Web 检索为模型提供事实支撑,以应对突发信息和高保真需求。而记忆系统则会决定模型能否随着用户的持续交互变得更“懂你”。


他强调,在未来高度复杂的任务中,模型对上下文的感知能力将决定其行为效果,而检索与记忆就是支撑这一感知能力的基础结构


Altman 补充称,OpenAI 最新推出的代码 agent Codex,是他第一次觉得“这东西真的快接近 AGI 了”


用户只需给出一组任务,它就能自主运行几个小时,不仅能写代码,还能读文档、接入 GitHub、查阅 Slack


虽然目前还像一个实习生,但很快就会成长为能独立连续工作多日的高级员工。类似的变革也在销售、客服、支持等流程中出现,工作方式正发生根本性变化——人类把任务分发出去,再对成果做整合与反馈,像是在管理一群虚拟员工


Altman 预计,未来的 agent 不仅能处理短周期重复任务,还将处理长时跨度、高层级的认知问题。他相信,在不远的将来,我们将拥有“AI 科学家”,能帮助人类发现新知识,推动科学突破


当被问及如何定义 AGI,Altman 回顾了 2020 年的情景。当时 GPT-3 尚未发布,如果让那时的人看到今天的 ChatGPT,大多数人会惊呼这就是 AGI。这正是人类预期不断被重塑的例证。


他指出,真正重要的是技术进步的速度,而不是某个宣布“我们已实现 AGI”的节点。他提出,如果某个系统能自主进行科学发现,或极大提升科学探索的效率,那么就已实现了 AGI 的核心目标


Ramaswamy 用一个比喻回应:潜水艇会不会游泳?技术上看会,但语义上又可能不会今天的模型已经具备令人惊艳的能力,硬要去争论是否“满足 AGI 定义”,反而显得多余。就像普通计算机可以击败所有国际象棋冠军,但人类仍乐于下棋。AGI 并不是终点,它是新一轮人机协作时代的起点


Guo 表示,在大众语境中,AGI 实际上被误解为“意识”的代名词,只是大多数人并未意识到。她继续追问 Altman,OpenAI 是否观察到哪些“能力涌现”的早期迹象,会影响他们的产品构思和公司方向。


Altman 指出,未来一两年内发布的新模型将具备上一代无法企及的能力。它们能理解复杂上下文,调用外部工具,接入各种企业系统,在稳定性上也足以放心托付复杂任务。他强调,未来模型将真正成为“复杂问题解答者”,这不是幻想,而是技术演进的自然趋势


Guo 问他是否能提供一种直觉框架,帮助企业判断模型的边界和潜力。Altman 表示,他喜欢用一个理想框架来思考:


一个非常小的模型,拥有超人类的推理能力,运行速度极快,有 1 万亿 token 的上下文窗口,并能调用你能想到的所有工具。在这个设定下,问题是什么、模型有没有现成知识或数据,其实都不重要”。


在这种设定下,“是否提前掌握知识”不再重要,关键在于模型是否有能力推理并输出正确答案。他强调,不应把大模型当作数据库,而应把它当作推理引擎——它能在高度复杂的信息环境中找到结构性解法。


Guo 提出一个假设性问题 —— 如果现在有 1000 倍算力,你们会用它做什么?


Altman 首先给出一个元答案:让模型自己思考,怎么最有效地用这 1000 倍算力,比如让它设计更好的模型


他的实用回答是:在推理阶段投入更多算力,确实能显著提高模型表现。他建议,企业应该大胆在最困难的问题上加大算力投入,哪怕只是部分任务,也能获得非线性收益。I/O 到 iO,Jony Ive 将推动一场新的设计运动 —— AI 正在改写计算范式与硬件定义,也是大模型后的新战场


文章来自于“有新Newin”,作者“有新”。


作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!