《洞见 | 算力的尽头是能源:科技巨头如何应对能源瓶颈》

  • 来源专题:光电情报网信息监测服务平台
  • 编译者: 胡思思
  • 发布时间:2025-02-14
  • 在享受智能手机的便捷、人工智能的高效、云计算的强大时,我们很少停下来思考:这些日益普及的技术,背后究竟依赖着多少能源?从智能手机的快速运算,到云端服务器的海量数据处理,再到智能家居的自我学习,背后都有一个共同的隐形力量

    —— 算力。

    然而,算力并非无止境,这股力量的尽头,正是能源的极限。算力的增长和普及离不开能源的强力支撑,其尽头在于能源。能源的获取、利用效率、分配和可持续性,将决定算力未来发展的边界。

    算力与能源,仿佛是两根交织的命脉,缺一不可。每一次技术的突破,都会伴随着对计算能力的更高需求,而这一切的背后,离不开对电力的依赖。最近,在白宫举行的一次会议上,OpenAI 首席执行官山姆?奥特曼(Sam Altman)提出,随着 AI 技术的飞速发展,能源需求急剧增加,这已成为不可忽视的现实。在与全球 AI 行业巨头们汇聚一堂时,奥特曼毫不掩饰地发出了迫切呼吁:"我们需要更多能源,而且要快。"

    这一呼声,标志着在数字时代,算力与能源的关系已进入前所未有的紧张态势。在这一背景下,远景科技集团董事长张雷在

    “2024 央视财经跨年演讲”

    中指出:“今天,当我们进入人工智能时代,发现原来能量可以制造智力,只有超级的能量和算力,才能创造超级的智力,人工智能的尽头居然是能源。”

    算力为何与能源密不可分?

    算力是计算设备执行指令、处理数据的能力,而这些设备的运行需要依赖能源,尤其是电力。随着人工智能的迅猛发展,算力需求正以更高的速度上升,导致能源压力日益增大。从芯片运算到设备散热,从硬件制造到冷却系统维护,算力的每一步都消耗着大量能源。据 Synthesia 称,英伟达的 AI 服务器每年至少需要 85.4 太瓦时的电力,这一耗电量相当于荷兰一年的用电量。

    以人工智能领域的语言模型为例,训练一个大型生成式模型,通常需要数千张高性能 GPU 或 TPU 并行工作数周,消耗的电力足以支撑一个中型城市运转数月。根据美国电力研究院(Electric Power Research Institute,简称 EPRI)的数据,每项

    ChatGPT 请求消耗的能源是标准(非 AI)谷歌搜索请求的 10 倍。该组织预测,到 2030 年,数据中心耗电量占美国全部发电量的比例将高达 9.1%,而目前这一比例为 4%。

    在这种背景下,尽管某些技术进步似乎可以缓解算力需求的快速增长。例如,官方披露的 DeepSeek V3 模型在 14.8T 高质量 token 数据上进行预训练时,所使用的算力仅为同类模型 Llama 3 的

    1/11。这个数据给许多人带来了希望,似乎意味着未来的大型 AI 模型不再需要如此庞大的计算资源,从而可以缓解能源压力。但从产业发展的长期趋势来看,这种乐观预期或许过于简单。

    AI 模型的商业化进程,很可能出现 “前沿与追随” 并存的双轨格局。前沿模型依赖先进推理架构和算法,用于解决复杂问题并获得丰厚的商业回报,这类模型对算力的需求极大;而追随模型则以低成本进入中低端市场,在规模化应用时仍需大量算力来保证应用效率。

    无论是前沿模型还是追随模型,二者的共同特点是对算力的需求不断增长。尽管单个模型可通过算法优化或硬件效率提升降低训练能耗,但总体来看,算力需求与能源消耗却呈现出指数级的增长态势。因此,尽管技术创新短期内会带来一些节能效应,但随着 AI 技术应用的普及和深化,算力需求将不可避免地继续攀升,能源瓶颈也将愈加凸显。

    为此,在白宫会议后,奥特曼与 AI 行业的领军人物共同提出了名为《基础设施关乎前途命运》(Infrastructure Is Destiny)的提案,呼吁美国政府在多个州建设若干个装机容量为 5 吉瓦的大型发电站,以应对日益增长的 AI 能源需求。每座 5 吉瓦的发电站成本高达 1000 亿美元,专为 OpenAI 及其他 AI 前沿公司提供电力支持。这一提案反映了数字社会中算力与能源之间日益加剧的冲突。当前,全球 5 - 7 家科技巨头大量使用算力资源,训练和运行新一代 AI 模型,对这种规模的发电站需求十分迫切。5 吉瓦的容量只是对未来算力需求的初步估算,随着技术发展,这一需求还可能进一步上升。

    能源的边界:摩尔定律的悖论

    摩尔定律曾是半导体行业发展的核心法则:芯片的计算能力每 18 个月翻一番,且单位功耗保持不变。这个定律促进了芯片性能的提升,也在一定程度上带动了算力的扩展。然而,随着芯片工艺逐渐逼近物理极限,摩尔定律的

    “魔力” 开始衰退,单位算力的功耗并未显著下降。换句话说,算力的增长速度,已经超越了单纯依赖芯片工艺进步的阶段,更多依赖于硬件数量的增加和计算资源的集中,而这直接导致了能源消耗的加剧。我们不得不面对一个日益严峻的问题:能源供应是否能跟得上这一增长的算力需求?

    全球数据中心的能源消耗正处于快速增长之中。根据国际能源署(IEA)的预测,到 2026 年,全球数据中心和 AI 行业的电力需求将翻倍。美国的情况尤为严峻,美国能源部估计,到 2027 年,50% 的新数据中心将面临电力不足的问题。预计到 2030 年,仅美国的数据中心电力需求将达到 35 吉瓦,几乎是 2022 年需求的两倍。而这仅仅是 AI 与大数据等高算力需求的初步反映。随着生成式 AI 和机器学习等技术的深入发展,算力需求将继续攀升。这种增长趋势,正迫使全球科技公司在算力需求和能源供应之间,做出艰难的抉择。

    除了电力能源之外,数据中心还消耗大量的水资源。总部位于香港的智库

    “中国水风险” 指出,目前中国内地 430

    万个数据中心机柜的耗水量约为 13 亿立方米,约为天津全市居民用水量的 1.9 倍;到 2030 年可能会增加到 1130 万个机柜,耗水量超过 30 亿立方米。报告亦指出,随着聊天机器人的兴起,相较传统搜索,聊天机器人可能导致用水量激增 20 倍。

    能源的来源:科技巨头如何应对能源危机

    面对日益严峻的能源瓶颈,全球科技巨头纷纷提出解决方案,力图在算力需求与能源供给之间找到平衡点。无论是核能、可再生能源,还是边缘计算、冷却技术等一系列创新方案,都在寻找突破口,试图为未来算力的可持续增长铺路。

    1.核能:稳定但不完美的选择

    核能不仅能够提供高效且稳定的电力供应,还具备低碳的优势,因此成为许多科技公司解决能源瓶颈的关键选择。亚马逊、谷歌和微软等公司,都在积极探索将核能作为支撑数据中心算力的稳定电力来源。

    例如,亚马逊已经在宾夕法尼亚州建设了一个靠近核电站的数据中心,以便直接利用核电的稳定供应。与此同时,亚马逊宣布将投资超过 5 亿美元开发小型模块化核反应堆(SMR),以满足其云计算服务扩展到生成性 AI 时对清洁能源的巨大需求,并作为实现净零碳排放的一部分。亚马逊网络服务(AWS)已与弗吉尼亚州公用事业公司 Dominion Energy 达成协议,探索在现有的 North Anna 核电站附近开发 SMR。SMR 具有更小的占地面积、更快的建设时间,能够更快地接入电网。亚马逊还与 Energy Northwest 达成协议,资助在华盛顿州开发四个 SMR,这些反应堆将直接向电网供电,帮助满足亚马逊运营的能源需求。

    微软(Microsoft Corp.)更是与核能初创公司合作,开发小型模块化反应堆(SMR),以提供更灵活的核能解决方案。最近,微软达成协议,计划在2028年重启已经退役的三哩岛核电站(Three Mile Island),并购买该站的全部电力供应。

    尽管核能具有低碳、稳定的优势,但它也面临着巨大的挑战。首先是高昂的建设和维护成本,其次是核废料的处理和管理问题。此外,公众对核能安全存在担忧,当地居民可能会抵制(英文中有 NIMBY 这个说法,即 Not In My Backyard,一项有意义的公共工程人人都希望建设,但不希望建在自己社区附近)。再考虑到漫长的许可和建设过程,核电作为一种解决方案只能发挥有限作用。

    2.可再生能源:绿色能源的追寻

    除了核能,越来越多的科技公司开始转向可再生能源,如风能、太阳能等,以应对日益增长的能源需求。苹果公司通过大规模投资太阳能和风能,已经实现了其数据中心 100% 依赖可再生能源的目标。Meta 也在北欧建设了多个绿色数据中心,利用当地丰富的水力和风力资源,为其全球业务提供清洁能源。

    最近,谷歌宣布与美国能源公司 Intersect Power 和投资公司 TPG Rise Climate 携手,共同投资 200 亿美元,在美国打造多个由可再生能源供电的工业园区,旨在为数据中心供应清洁能源,减少碳排放。首个园区预计将于 2026 年部分投入运营,2027 年全面竣工。如果成功,这将极大地改变数据中心的建设和运营方式。谷歌及其竞争对手一直在努力为能源密集型 AI 数据中心寻找清洁能源来源。然而,美国的电力供应仍主要依赖化石燃料,新数据中心接入电网会导致更多的污染。通过这一新的合作伙伴关系,谷歌可以直接连接到太阳能、风能和电池等可再生能源,绕过传统电网,从而降低碳排放。

    谷歌全球数据中心能源主管 Amanda Peterson Corio 在一份新闻稿中表示:“AI 的规模为我们提供了彻底重新思考数据中心开发的机会。为了实现 AI 的潜力,必须以新的清洁能源来源来满足不断增长的电力需求。”

    然而,可再生能源也并非没有缺陷。风能和太阳能的间歇性特质,使得它们无法保证全天候稳定供应。而这一问题,直接影响了数据中心的能源保障。如何解决可再生能源的波动性,以及如何高效储存和调度这些能源,依旧是摆在科技公司面前的一大挑战。

    3.中国的

    “东数西算”:资源优化的探索

    在中国,随着数字经济的崛起,算力需求的爆炸性增长同样带来了巨大的能源与环境压力。为此,中国提出了

    “东数西算” 战略,旨在通过将数据中心从东部能源密集地区迁移至西部,以此缓解东部能源供应紧张的困境。西部地区水利和风能资源丰富,使得这一战略在一定程度上为解决能源供应问题提供了可行的路径。

    然而,这一战略并非没有挑战。西部地区水资源紧张,且大量的数据中心需要消耗巨量水资源进行冷却。同时,尽管中国在推广清洁能源方面取得了一定进展,但许多数据中心仍然依赖于燃煤电力,这使得碳排放问题依然严峻。

    技术突破:未来算力能源的希望与可能

    技术创新或许能够为破解算力与能源之间的矛盾提供新的希望。边缘计算、量子计算、冷却技术等前沿技术,正在为数据中心的能源消耗提供创新解决方案。边缘计算通过将计算任务分布到靠近用户的终端设备或本地节点,减少了对集中式数据中心的依赖。这不仅降低了能耗,还能提升数据处理效率。随着 5G 和物联网(IoT)的普及,边缘计算可能成为未来算力发展的一大趋势。

    冷却技术的进步也不容忽视。随着计算密集型任务的增多,数据中心的冷却技术成为了减少能耗的关键。传统的空调和风冷系统不仅效率低下,而且耗能巨大。例如,利用寒冷地区的自然气候,数据中心可以显著减少对传统冷却设备的依赖,同时降低能耗和运营成本。近年来,液冷技术和浸没式冷却技术的出现,为数据中心提供了更为高效的解决方案。

    另一种可能性是量子计算。量子计算利用量子力学的原理,能够在某些特定任务中以极低的能耗完成传统计算机难以企及的运算。虽然量子计算目前仍处于实验阶段,但一旦技术突破并进入实际应用,它有可能大幅度减少算力对能源的需求,为解决能源瓶颈提供革命性解决方案。

    算力的未来:能源限制中的平衡艺术

    算力的尽头是能源,这不仅是一种物理限制,更是一种哲学反思。算力的增长是否应当无止境?我们是否能够在能源的边界内找到技术发展的最佳路径?

    在可预见的未来,算力的增长将更多地依赖能源的创新性供给和更高效的资源利用。无论是核能、可再生能源,还是边缘计算、量子计算,这些技术都需要在能源、环境和社会责任之间找到平衡。科技发展的意义不在于无限制地追求算力的堆积,而在于如何让这些算力更高效地服务于人类社会。

  • 原文来源:https://www.thepaper.cn/newsDetail_forward_30130777
相关报告
  • 《洞见 | 面对AI能源危机,提高清洁能源和能源效率是当务之急》

    • 来源专题:光电情报网信息监测服务平台
    • 编译者:胡思思
    • 发布时间:2024-10-18
    • 过去近两年里,虽然生成式AI使人工智能技术进入一个新发展阶段,相关应用也在各个领域得到普及应用,但相伴产生的能源危机也成为当下不能忽视的难题。 目前,人工智能对全球北方的能源安全构成了前所未有的威胁,可能会严重破坏脱碳目标,给电网带来巨大压力,并导致能源市场动荡。这一发展趋势还将蔓延到整个经济领域。 面对AI带来的快速增长的能源需求,目前主要两大解决方案是:扩大能源供给和降低AI能源消耗。尽管量子计算理论上在降低AI能源消耗上具有明显的优势,但这一技术实现商业化也有一段时间。 生成式AI带来能源、环境危机 尽管生成式AI改变了人工智能技术与应用的发展轨迹,加速了人与AI的互动进程,但其广泛应用也带来了巨大的电力和水资源消耗问题。 生成式AI模型如ChatGPT等需要大量的电力来支持其复杂的计算需求。例如,训练一个大型语言模型如ChatGPT需要消耗相当于一个小城市一年用电量的电力。 国际能源署预测,到2026年,AI行业的电力消耗将至少是2023年的10倍。这种增长趋势使得数据中心成为能源消耗的重要增长点,预计到2025年,AI相关业务在全球数据中心用电量中的占比将从2%增加到10%。 到2030年,电动汽车和人工智能加在一起将为美国电网增加290太瓦时的电力需求。这将使他们的总用电量与世界第18大经济体土耳其的全国用电量大致相同。 生成式AI不仅消耗大量电力,还对水资源造成压力。例如,ChatGPT每次与用户交流25到50个问题,就需要消耗500毫升的水来降温。这种高能耗和高水耗的现象在生成式AI的广泛应用中变得越来越普遍。 此外,生成式AI的能源消耗还引发了环境问题。例如,生成一张高清AI图像所耗能源相当于为手机电池充满电,这背后是巨大的电力消耗和随之而来的温室气体排放。这种能源消耗不仅加剧了气候变化,还对自然资源造成了压力。 今年1月,OpenAI 首席执行官萨姆·奥尔特曼 (Sam Altman) 在瑞士达沃斯举行的年度会议上承认了研究人员多年来一直在强调的观点:人工智能 (AI) 行业正在走向能源危机。而埃隆·马斯克也在“博世互联世界2024”大会上警告称,人工智能正面临能源危机,电力短缺即将到来。 如何解决AI带来的能源危机 如今,很多国家正在满足AI技术对能源的需求和不严重损害能源安全或气候两难中寻找平衡点。这种增长是一场与时间的赛跑,既要扩大发电量,又不能让电力系统不堪重负。 指出,解决能源危机这一难题最合乎逻辑的解决方案是减缓人工智能的发展,但似乎完全不可能。特别是在美国,AI这项技术得到了两党罕见而强烈的支持,在这一新兴领域保持领导地位被视为国家安全、经济、网络安全和科技行业治理的关键战略。 2024财年,美国国家技术研究和发展局(NITRD)的人工智能研发投资预算增长到31亿美元,比2023年的26亿美元提高了19.2%,创历史新高。此外,美国参议院也提出了每年至少拨款320亿美元的AI政策路线图,以支持AI领域的创新。美国政府不仅在财政上支持AI技术的发展,还通过发布战略计划和行政命令来推动AI技术的创新和应用。 毫无疑问,问题的核心还是解决能源供给和降低能耗两大议题。而面对AI带来的能源大规模增长趋势,比尔·盖茨和萨姆·奥尔特曼等科技巨头甚至呼吁增加对核聚变这一未来的技术方法的投资。 然而,未来的技术方法显然“远水难救近火”,发展可再生能源和提高能源利用效率是应对AI能耗问题的重要策略,其中包括发展太阳能光伏、风能等大量发展清洁能源的潜在途径。 AI的能耗问题不仅在于其本身的运行和计算需求,还包括硬件设施如数据中心和GPU芯片的支持。因此,降低AI的能耗需要优化算法、提升计算性能以及使用高效能硬件。例如,通过改进AI模型、提升算法效率和使用高效能硬件等技术手段来优化AI性能。 量子计算商业化尚远 在降低能源消耗上,量子计算是一个潜在解决方案。普通计算机以二进制运行,以1和0作为开关,但量子计算以量子位运行,量子位可以同时打开和关闭,就像在落地之前抛硬币正面或反面一样。 这种同时打开和关闭的状态称为叠加,它可以彻底改变我们所知的计算。在某些情况下,量子计算机的能效比标准超级计算机高出100倍。这可能对人工智能产生巨大影响,而量子计算可能特别适合人工智能。 对此,量子计算公司IonQ总裁兼首席执行官Peter Chapman表示,“对于量子计算擅长的事情——例如人工智能处理——任何GPU都无法与我们竞争。这些工作负载最终将由量子承担,而当前的技术根本无法与之竞争。” Chapman介绍,“量子计算——我们的下一代芯片——要模拟它正在做的事情,你需要大约25亿个GPU,并且它使用两个标准壁式插座供电。”他表示,IonQ公司很可能会在六到九个月内准备好这种芯片的原型。 然而,尽管量子计算机在特定情况下可能比传统超级计算机具有更高的能效,但其实际应用仍面临许多挑战,如维持量子态的难度和扩展量子位数量的技术难题,还需要更多的技术进步和实际应用的验证。因此,由于量子计算在实现商业化之前还有很长的路要走,采取广泛的方法来提高清洁能源和能源效率是当务之急。 巴克莱银行的威尔·汤普森最近与他人合作撰写了关于人工智能功耗的研究报告,也倾向于支持这一观点。他表示,解决人工智能能源难题“需要采取一种总体方法,即扩大和现代化电网基础设施,将可再生能源与公用事业规模的存储相结合,利用我们现有的核能,并扩大新型无碳能源的规模。这将包括地热、先进的核小型模块化反应堆(SMR)和聚变技术。”
  • 《人工智能(AI)“变革”能源:数据需求的尽头是新能源》

    • 来源专题:能源情报网监测服务平台
    • 编译者:郭楷模
    • 发布时间:2025-04-28
    • 根据国际能源署(IEA)的一份报告,人工智能(AI)将在未来十年内“变革”能源行业。国际能源署表示,由人工智能驱动的数据中心带来的电力需求激增,以及同时利用人工智能优化和减少能源部门的排放,可能会成为全球能源领域下一个十年的显著特征。然而,这种影响的程度和形式仍存在很大的不确定性。 报告称,到2030年,全球数据中心的电力需求将“翻一番以上”,达到每年945TWh以上。这将受到“人工智能优化数据中心”需求的推动,同期需求将增加四倍以上。AI数据中心越来越多地使用高效服务器,这导致更高的功率密度和更高的需求。 IEA表示,其预测的一个“关键输入”是对这些服务器“近期”出货量的预测,以衡量数据中心需求的增长。 国际能源署表示,“多样化的能源”将满足这一需求,尽管可再生能源和天然气由于其成本竞争力和在“关键市场”的可用性而可能会引领这一需求。 “人工智能是当今能源领域最大的事件之一,但直到现在,政策制定者和市场都缺乏全面了解其广泛影响的工具,”国际能源署执行董事法提赫·比罗尔(Fatih Birol)说。 美国和中国 “未来五年,全球数据中心的电力需求预计将增长一倍以上,到2030年,其耗电量将与当今日本全国的耗电量相当。一些国家受到的影响将尤为显著。“比罗尔说。 报告称,到2030 年,美国和中国将占全球数据中心需求增长的近80%,分别增长130%和170%。美国和中国的大型科技和数据云公司聚集在一起,可再生能源开发商和数据中心运营商之间已经达成了大量交易。拥有Facebook、WhatsApp和 Instagram的公司Meta已在美国签署了数百兆瓦的太阳能光伏购电协议,亚马逊和谷歌也执行了类似的策略,为不断增长的数据中心业务提供动力。 人工智能也开始在供应和基础设施方面崭露头角,越来越多地用于优化和电网服务。今年早些时候,PV Tech Premium发布的一份报告称,中国国有能源企业正在“争相”将DeepSeek 人工智能平台整合到其运营中,而美国政府此前也曾拨款寻求基于人工智能的解决方案来应对该国电网互联的挑战。 欧洲和日本的数据中心需求也将显著增长,新加坡和马来西亚的需求也将逐渐显现。 需求和效率 数据中心的需求将给全球电网带来更大压力,但这种压力的程度尚不确定。国际能源署在其基准情景中预测,到2030年,人工智能数据中心仍仅占全球用电量的3%。不过,这一比例可能会有高达45%的变化——到2035年,这一比例可能会上升至全球电力需求的约4.4%,这取决于未来十年的金融和技术趋势。 然而,人工智能生成带来的风险和需求可能会通过利用人工智能的能力来抵消。 国际能源署表示,能源基础设施的数字化程度提高以及人工智能的广泛应用增加了遭受网络安全攻击的风险。同时,人工智能也是“能源企业防范此类攻击的关键工具”。 对于排放而言也是如此。人工智能数据中心需求的增加会推高总体排放量,但报告称,“在整体能源领域中,这一增长幅度很小,而且如果人工智能技术得到广泛应用,其带来的排放量减少可能足以抵消这一增长”。人工智能还有助于加快太阳能光伏和储能技术的创新。 “随着人工智能的兴起,能源行业处于我们这个时代最重要的技术革命的前沿,”Birol说。“人工智能是一种工具,可能是一种非常强大的工具,但如何使用它取决于我们——我们的社会、政府和企业。”