AI热点 17小时前 190 阅读 0 评论

下一场 AI 战争,打在电网上

作者头像
AI中国

AI技术专栏作家 | 发布了 246 篇文章

就在前几天,OpenAI 又搞了个大动作。


他们要在德州阿比林,新增 4.5GW 的电力接入,并且已经和 Oracle 签好了合同。



你没看错,4.5GW,相当于五座核电站。Sam Altman 自己在 X 上发照片配文,强调“这是一项巨大的基础设施项目”,像是生怕别人看不懂它的量级。要知道,这仅仅是 Stargate 这个项目的一部分。


什么是 Stargate?你可以理解为 OpenAI 试图用四年时间、5000 亿美金,造出一张属于自己的 AI 能源网络——多个数据中心,几百万吨设备,外加几座发电站和专属输电线。


而之所以 OpenAI 要这样自造电网,并不是因为他们富,而是因为美国电网,真的供不起它们。


我们带大家来算笔账——


GPT-3 训练一次,用了 3,640 个 PetaFLOP/s-days;到了 GPT-4,这个数字直接飙到了 20 万。



什么概念?


如果我们把这些算力换算成普通人家能理解的家用电脑:GPT-4 的训练大约等于你拿 1.6 亿台高性能台式机,一起跑满一天。


用顶配的 RTX 4090 显卡来算,也要 5500 万块才能撑下来。如果你用的是数据中心专用的 A100 卡,也要堆上 64 万块,每块电费 400 瓦,训练完一轮 GPT-4 得烧掉 615 万度电。


这还只是训练一次。


模型训完就结束了?不,真正吃电的,是上线之后的推理服务——也就是你每天在用 ChatGPT 的那部分。OpenAI 每天的推理集群光是用电,就要超过 56 万度,一年就是 20 多亿度电,相当于一个中等城市的年用电量。


AI 模型从出生那天起,就成了个长期吃电的超级巨婴。


这个巨婴的胃口,普通电网喂不饱了。


OpenAI 的 Stargate 想接入 4.5GW 电力,看起来很庞大。但你去翻美国的输电规划,会发现这几乎是不可能完成的任务。因为美国不是没电,是电网还停留在上个世纪,“拉不了线”。


电厂你可以建,但要把电送到数据中心,你得先通过一整套输电线路的联邦审批流程,从环境影响评估、土地使用听证、到各州的能源委员会签字,动辄四年起步,有的十年卡死也批不下来。


美国的 AI 厂商们可能服务器早就装好了,人也招了,模型也更新了,唯一差个插座,电线批不下来。一个个数据中心就变成空壳子,就跟房地产泡沫时的“空心楼盘”一模一样。


这不是虚构。北弗吉尼亚的阿什本,就是世界上密度最高的数据中心走廊。现在的新项目,不少都“等电”状态。排在电网公司门口,希望有人能早点来批那根该死的线。



更讽刺的是,美国 AI 公司不仅拉不了线,还得给电网公司交“预付款”,就像租房高峰期你提前一年交五年房租,只为抢个有空调的房间。



电贵也贵得有理。AI 的电价,有时候像是给富人单独开的 VIP 水龙头,而普通人的电费就悄悄涨了一毛。于是你会看到一种新的民怨:不是 AI 抢工作,是 AI 抢电。一个用来生成猫图和写稿子的玩意儿,居然吃掉了整个城市的电配额。


Anthropic 在前几天发布了一份名为《Build AI in America》的报告。


地址在此:https://www.anthropic.com/news/build-ai-in-america



里面有一句话说得很直白:按当前趋势,美国 AI 产业到 2028 年,至少要用掉 50GW 的电力。这还只是保守估计,业内甚至有人喊出“92GW”这种惊人的预测值。



50GW 是什么?相当于五十座百万千瓦级的电厂,要是核电站的话,大概要建整整一轮“三代核电”才供得上。


听起来夸张,但你去看 OpenAI、微软、Anthropic 这些公司现在的动向,就知道他们不是喊口号,而是真的要造电。微软投了小型核电站,OpenAI 的老板自己投了核聚变公司,Anthropic 则在四处游说,希望联邦政府快点通过输电线审批流程。AI 公司已经从做算法的变成“电力自救组织”了。


但你再看看中国,完全是另一幅景象。


2023 年,中国全年新增发电装机容量超过 4.3 亿千瓦,是美国的十倍以上。今年前半年,光是风电和光伏的新增装机就又干出了 3.5 亿千瓦。


美国人四五年批不下来的电力规划,我们一个季度就干完了。


中国的这些电力,并不是瞎造,而是精准对接到了“东数西算”的布局上。



宁夏、内蒙古、贵州……这些以前没什么工业负荷的地方,如今一个个建起了“算力小镇”。张家口的数据中心集群,单机架数超过 44 万个,服务器数量比全美一半州加起来都多。并且不是先建服务器、后接电,而是“先通电、后装机”,电厂、变电站、数据中心同步开建。


而在数据中心之外,还有一些规模更大的事情,在悄悄铺开。


比如藏东南,雅鲁藏布江下游的一段大峡谷。那是一条河流在高原尽头突然拐弯的地方,落差惊人,水能极丰。几天前,一项总投资超过万亿元的水电工程在这里开工。



地质活跃,交通困难,施工周期极长,但工程依旧照常推进。


你很难不去想象,这样一个位置、这样一个容量的项目,十年后电会流向哪。又或者,谁会用得上它。


没有人明确说过这和 AI 有关。


可在一张越来越复杂的电力调度图上,这类工程,总会默默占据最关键的那个节点。


这月初,上海国家电网还做了个测试:对一个 AI 数据中心下达了调峰指令,三分钟内,这些 AI 任务就被“热迁移”到了千里之外的湖北十堰,把上海本地电负荷瞬间降了 75%。



这就是“算力高铁”真正跑起来的样子——哪里有电,模型就搬到哪。


这些基建是地方政府、电网调度、通信运营商的三方协同,是每一环都对齐到“国家级产业规划”这个大盘子里。


这才是下一场 AI 战争真正打响的地方:不在参数量、论文榜、谁先发模型,而是在电网、审批、调度、发电站的背后,是谁能真正养得起一个 AI 时代的能源底座。


AI 的技术迭代可能是全球的,但电力基础设施,一定是国别性的。


你可以有最聪明的模型、最强的芯片、最牛的工程师,但如果你接不上电,啥都不是。


文章来自于微信公众号“夕小瑶科技说”,作者是“R.Zen”。


作者头像

AI前线

专注人工智能前沿技术报道,深入解析AI发展趋势与应用场景

246篇文章 1.2M阅读 56.3k粉丝

评论 (128)

用户头像

AI爱好者

2小时前

这个更新太令人期待了!视频分析功能将极大扩展AI的应用场景,特别是在教育和内容创作领域。

用户头像

开发者小明

昨天

有没有人测试过新的API响应速度?我们正在开发一个实时视频分析应用,非常关注性能表现。

作者头像

AI前线 作者

12小时前

我们测试的平均响应时间在300ms左右,比上一代快了很多,适合实时应用场景。

用户头像

科技观察家

3天前

GPT-4的视频处理能力已经接近专业级水平,这可能会对内容审核、视频编辑等行业产生颠覆性影响。期待看到更多创新应用!