
所谓的人工智能 (AI) 如今风靡一时,从你的奶奶向 ChatGPT 学习如何用 Python 编程,到网红无需额外付费就能制作视频,但一个日益增长的担忧是,数据中心的电力来源究竟在哪里。《麻省理工学院技术评论》团队深入探讨了当前的形势,以及人工智能是否会(通过碳排放)毁灭我们所有人。
亲爱的黑客,您最感兴趣的或许是他们是如何得出这些数字的。由于没有统一的方法,而且不同的公司进行不同类型的处理,他们的估算中融入了许多假设。由于缺乏闭源模型的信息,开源模型被用作能源使用情况的基准,并以此推断整个行业的能源使用情况。不出所料,模型越大,能源使用足迹就越大。
虽然数据中心的用电量在2005年至2017年期间大致保持不变,因为效率的提高抵消了在线服务的增长,但到2023年,数据中心的能耗将比之前的数字翻一番。这些数据中心的用电量已经比美国平均水平高出48%,而且随着新建数据中心推动化石燃料使用量的增加,预计碳排放强度还会上升,例如路易斯安那州的Meta数据中心和被发现使用违反《清洁空气法》的甲烷发电机的X数据中心。
《技术评论》确实发现,“研究人员估计,如果数据中心在一年中仅仅几个小时内将用电量减少大约一半,就能使公用事业公司处理大约76千兆瓦的新增需求。” 这意味着要么将请求重新分配给其他地理区域的服务器,要么只是在电网每年负载最高的80-90小时内降低响应速度。
如果你对美国数据中心的分布感兴趣,可以看看这张来自 NREL 的地图。还不明白这些 LLM 是如何运作的吗?这里有一个解释。
原文: https://hackaday.com/2025/07/03/ai-might-kill-us-all-with-carbon-emissions/