地球发电不够用,谷歌要把 AI 芯片送上太空
当下的全球 AI 行业,正面临一个残酷现实:“真正的 AI 瓶颈不是 GPU,而是电力(Power)”。 近日,微软首席执...

当下的全球 AI 行业,正面临一个残酷现实:“真正的 AI 瓶颈不是 GPU,而是电力(Power)”。
近日,微软首席执行官Satya Nadella在采访时坦言,微软现在有大批英伟达的AI芯片因为缺电放在仓库里积灰。同样的情况出现在谷歌欧洲数据中心,因电网限制被迫延期。
在此背景下,谷歌在本月正式启动一项名为“太阳捕手计划”(Project Suncatcher)的项目,宣布将自研 TPU AI 芯片送入太空,并且与卫星公司 Planet Labs 合作,在距地 650 公里的低地球轨道上构建 AI 计算集群。
看起来像是在技术炫技,实际上只是为了应对能源危机的抉择。

开头提到,来自地面电力体系的压力,是谷歌转向太空的直接动因。AI 算力的爆发式增长让数据中心能耗呈指数级飙升:2010 年全球数据中心耗电约 200 太瓦时,2024 年已逼近 500 太瓦时,预计 2030 年将占全球总发电量的 8%。OpenAI 训练 GPT-4 单次电耗超 1200 万千瓦时,相当于欧洲小城市月用电量;一个万卡 AI 集群运行功率就超过 7 兆瓦,绝非普通电网能承载。
谷歌自身的困境就更加明显:其欧洲新数据中心因电网接入问题多次延迟,而爱尔兰等数据中心密集地区已直接暂停新审批。
即便谷歌已将 Gemini 模型查询能耗一年内降低 33 倍,但 AI 应用的增长速度远超能效优化幅度,地面电力已严重阻碍了自家AI应用的发展。
相比之下,太阳每秒输出的能量是人类全球电力生产总量的 100 万亿倍以上。
按照谷歌的计划,在选定的晨昏太阳同步低地球轨道上,太阳能板不仅能获得地面 8 倍的能量密度,更能实现全年 99% 的持续供电,彻底摆脱昼夜与天气干扰。有意思的是,太空真空环境还能完美解决了地面数据中心的冷却难题,地面机房 35%-45% 的运营成本消耗在散热上,而太空中的辐射散热机制能让 TPU 芯片在无需复杂冷却系统的情况下维持稳定运行。
这样一来,太空的数据中心可以不将电能传回地面,而是直接在太空完成计算仅回传结果,大幅提升了方案可行性。
报道称,目前的TPU 芯片已经实现了太空适配性突破,谷歌专为该计划定制的 Trillium(TPU v6e)芯片,已通过 67 兆电子伏质子束的严苛测试:在承受 15krad 的辐射剂量时未出现硬件故障,即便最敏感的高带宽内存(HBM)子系统,也能在 2krad 的剂量下保持稳定。
最后,为了构建规模化算力,谷歌设计了由 81 颗卫星组成的密集星座:在 650 公里轨道上以 100-200 米间距编队飞行,通过自由空间光学链路实现数据互联。地面测试已实现 1.6Tbps 的双向传输速率,采用密集波分复用技术后,单链路理论带宽可达 10Tbps,满足 AI 集群的低延迟通信需求。
当然,疯狂的计划背后也要算一笔经济账。谷歌的财务模型显示,当火箭发射成本降至每公斤 200 美元以下时,太空数据中心的综合成本将与地面持平。这里可以参照SpaceX 的星舰计划,花旗等机构预测 2035 年左右即可实现价格拐点。当前发射成本虽仍高达每公斤 1500-2900 美元,按 SpaceX 的曲线,累计发射质量每翻倍,成本就能下降 20%。
如果一切顺利,谷歌将在2027 年初与 Planet 公司合作发射的两颗原型卫星,用来验证 TPU 在轨运行稳定性、光学链路通信效率及分布式机器学习能力。
尽管散热材料优化、训练任务抗辐射等难题仍待攻克,但这一探索已为 AI 突破能源枷锁指明方向。
最后,记得关注微信公众号:镁客网(im2maker),更多干货在等你!
硬科技产业媒体
关注技术驱动创新
AIAI芯片太阳能欧洲行业 
微信ID:im2maker
长按识别二维码关注