AI究竟多费电?
有人估算,ChatGPT每天光电费就要花53万元,一年则需要花费2亿元。
据外媒报道,ChatGPT每日耗电量已超过50万千瓦时,相当于美国家庭用电量的1.7万多倍。
谷歌训练AI时“吃掉”的电量同样惊人。每年要消耗23亿度电。相当于美国一个州首府所有家庭一年的用电量。
这还不是终点。如果将来生成式AI被广泛应用,所需要的耗电量将更多。
如此巨大的能源消耗,让OpenAI、谷歌等AI巨头面临挑战,也引起很多人担心未来会“电荒”。
在此背景下,“AI的尽头是能源”成为大家热议的话题。然而,能源的尽头什么?光伏、储能,还是可控核聚变?
-1-
AI究竟多费电?
据《纽约客》杂志报道,ChatGPT每天需要处理的请求超过2亿个,每天可能要消耗超过50万千瓦时电力来支持。美国普通家庭平均每天用电约29千瓦时。也就是说,ChatGPT每天用电量是家庭用电量的1.7万多倍。
另一份报告显示,OpenAI的GPT-3单次训练耗电量就达1287000千瓦时,也就是12.87亿度电。
这是什么概念?用知名计算机专家吴军的话形容:大概是3000辆特斯拉电动汽车、每辆跑到约32万公里的总耗电量。
除了OpenAI,谷歌也“不容小觑”。
谷歌AI训练的耗电量占该公司总用电量的10%至15%。也就是每年耗电量达23亿度。这相当于美国一个州首府所有家庭一年的用电量。
由人工智能初创公司Hugging Face搭建的BLOOM模型,光是前期训练它,就花掉43万多度电。相当于国内100多个家庭一年用掉的电量。
有业内人士表示,大模型训练成本中60%都是电费。训练完成后,还要用大量计算能力来运行,也是很大的能源消耗。
可以预见,如果将来生成式AI被进一步采用,耗电量可能会更多。
据美国Uptime Institute的预测,到2025年,人工智能业务在全球数据中心用电量中的占比将从2%猛增到10%。
荷兰国家银行数据科学家德弗里斯预计,到2027年,整个AI行业每年将消耗850亿至1340亿千瓦时的电力。彼时AI的用电量可能占全球总用电量的0.5%。
他还推算,如果谷歌将生成式人工智能技术整合到每次搜索中,每年将消耗约290亿千瓦时的电量。这比肯尼亚、危地马拉和克罗地亚等国一年的用电量还要多。
-2-
“电荒”将成为AI路上的绊脚石?
很多人正在担心,随着人工智能的突飞猛进,“电荒”会否真的发生。
其实,AI科技圈大佬们早就开始“担忧”了。
马斯克预测,未来两年内行业将由“缺硅”变为“缺电”,而这可能阻碍人工智能的发展。在他看来,电力短缺可能会造成严重后果,就像芯片短缺一度阻碍科技和汽车行业一样。
黄仁勋在一次演讲中说,AI的尽头是光伏和储能,不要只关注计算力的进步……按照当前的能源消耗模式继续下去,维持全球计算机运行就需要相当于14个地球的能源供应。”
OpenAI创始人奥特曼也提出了类似的看法。他表示,如果能源技术无法突破,就无法做到让AI技术释放全部潜力,AI想要走向AGI也是不可能的。
奥特曼认为,这个能源技术突破很可能就是可控核聚变。
可控核聚变俗称“人造太阳”,被称为人类的“终极能源”。
近期,一则核聚变相关突破频频登上新闻。普林斯顿团队用AI提前300毫秒预测了核聚变等离子不稳定态,这个时间,足够约束磁场调整应对等离子体的逃逸。
从此,科学家可以防止可控核聚变的中断,产生足够能量所需的高功率聚变反应,也就更有可能了。这项重大突破,成果已经登上Nature。
但核聚变“可控”和商业化之路依然道阻且长,可能需要几十年时间才能取得规模性商业应用。在此期间,还需要攻克技术、材料和工程等多重难题。
在此之前,风能、光伏等可再生新能源显然要先接力,成为能源“顶梁柱”。
破除能源紧缺难题,除了开源,更要节流。
模型本身的算法和架构,及硬件优化均会让AI功耗在一定程度上降低。可以从算法和模型、训练技巧等方面加以优化,来解决大模型高能耗问题。
此外,监管机构也需要提高整个AI供应链的透明度,要求AI厂商做好相关数据披露和控制。