人工智能的真正能耗:您是否要求加剧气候危机
发布时间:2025-05-23 15:41
资料来源:将DeepTech Deep Technology的人工智能纳入我们的生活一直是十多年来在线世界中最重要的变化。如今,数亿人经常使用聊天机器人来完成任务,学术研究,编程开发甚至创建图像和视频的帮助。但是,支持所有这些的能源成本是多少?麻省理工学院技术评论发表的最新分析报告揭示了有关AI行业能源消耗的真相,从一次咨询到前所未有的详细观点,从第一次的角度到一般规模。由于人工智能用户的数量即将克服数十亿美元的订单,因此该研究不仅跟踪了该行业碳足迹的当前状态,而且还可以预测未来发展的环境影响。在2005年至2017年之间,出现了许多新的数据中心以支持CL的增加OUD服务从Facebook到Netflix,但由于能源效率最高,数据中心的能源消耗一直保持稳定。自2017年以来,AI已开始取消一切。为了适应AI的需求,数据中心配备了高能量硬件,到2023年,它的能源消耗将增加一倍。最后一份报告表明,数据中心目前参与美国的电力的4.4%。根据劳伦斯·伯克利国家实验室于2028年12月发布的最后一个预测,到2028年,AI公司将使用超过一半的数据中心数据。当时,AI的年度消费只能达到美国国内电力消耗的22%。通过各种观点分析了这项研究,包括模型的构建,几个AI任务(文本,照片,视频生成)和能量选择的影响。数据中心:THAI中央战场AI模型的E诞生始于数据中心的密集培训阶段。诸如GPT-4之类的培训模型花费了数亿美元,以及相当于旧金山的为期三天的电力消耗的能源,但真正的商业价值仅在后推理阶段进行。当前,计算机已使用融合资源的80-90%用于推理,而不是培训。美国大约有3,000个现有数据中心正在加速向AI专业化的过渡,但技术公司保持了建筑规模和能源效率的细节。这种现象揭示了AI行业的矛盾。尽管培训阶段的技术进步吸引了人们的注意,但他们确实确定能源消耗和商业成功或失败对于用户的日常使用至关重要。随着更多“黑匣子”数据中心的扩展,能源效率和透明度成为行业紧急解决的挑战。在每个数据中心中,AI模型都加载在包含GPU的服务器集群上。特别是一种称为H100的特定模型,尤其是由NVIDIA创建的。这些筹码于2022年10月开始发送,此后销售额飙升。其他芯片包括A100和最后的Blackwells。他们的共同点是,它需要大量能量来执行高级功能而不是高温。这些数据中心配备了数以万计的GPU芯片,并且需要在执行时间内进行D系统和精确冷却,从而导致电缆和水废物的损失(每天数百万加仑)。在2017年IA硬件传播后,数据中心的能源消耗增加了一倍,到2023年。目前,美国能源流到数据中心的4.4%,其碳强度比全国平均水平高48%,突出了AI ROU的依赖性。在高碳能量中。一次咨询中的能源消耗的差异:从文本到视频消耗评估IA咨询的当前分类的指数跃升面临信息的严重不透明性。与标准化的测量值(例如汽车消耗)不同,可以实现数千次AI咨询的能源消耗差异,具体取决于多种因素,例如模型类型,盐含量,数据中心的位置和电源。封闭代码的主要模型(例如Chatgpt,Gemini)认为能源消耗数据是商业秘密,并形成了一个完整的黑匣子系统。研究人员宣布了开源模型(ME),尽管可以通过TA的火焰来衡量硬件消耗,但一般评估中仍然存在很大的差距。 GPU能耗仅占所有设备总能耗的50%(包括CPU,冷却系统等)。更重要的是,很难准确计算AI应用程序简单方案的能耗。随着IA将来成为独立代理人,能源需求将继续呈指数增长。多个AI任务的能耗差异很大。文本模型:Meta的调用3.1 8B该模型需要114个总能耗的焦耳,包括冷却系统所需的能耗,其他计算等。模型调用的总能量消耗3.1 405b是6,706 Joules的独特响应,该响应是8秒,以使其对应于8秒,以便执行微波炉。请记住,咨询的复杂性也对能源消耗产生重大影响,简单指令的能耗(例如计数笑话)可能比复杂的任务(创建)低9倍。此外,实际参数的量(估计10亿)和能量consump诸如GPT-4之类的封闭代码模型的数据仍然不透明,对行业能源消耗评估构成挑战。与文本模型不同,图像生成的能源消耗与快速内容无关,但取决于模型参数的数量,分辨率离子和传播步骤的数量。测试表明,稳定的扩散3消耗了大约2,282个焦耳以产生标准图像(1024x1024像素),通过提高图像质量(50步的扩散)低于最大文本模型中的6,706 Joules,使能耗增加到4,402焦耳。这种矛盾的现象源于以下事实:图像模型的参数(20亿)比上级文本模型小得多(40050亿),这表明不能仅基于产出方式确定能源消耗。 IA视频产生的能源消耗呈指数增长,而Cogvideox模型的新版本是生成的ed。与二十个版本相比,兰西奥(Rancio)的5秒视频(340万焦耳)的能耗增加了30倍,并且增加了图像的生成700倍以上。随着该模型承认更复杂的功能,例如视频版和综合场景,能源消耗继续增加。尽管IA公司声称它们比传统电影和电视制作更环保,但该声明并未考虑到未来视频制作中的爆炸性增长潜力,而真正的环境影响仍然值得怀疑。显然,视频的产生已成为需要AI应用中能量的领域之一。能量结构的困境:短期依赖燃料和化石转化,AI数据中心中的碳排放问题与能量结构密切相关。目前,几乎60%的美国电力仍取决于化石燃料和数据中心主要集中在REF CONTAMINATION HEAVY(例如弗吉尼亚州)的地区,这使得用电量比其他地区的平均水平高48%。尽管有望增加核能,但它将建立新的核能厂数十年。在加利福尼亚州和弗吉尼亚州,对AI的同样要求可能会产生几乎两倍的碳排放(650 g,而二氧化碳为1150 g),强调了局部能量结构在其对AI环境的影响中的关键作用。随着能源消耗的增加,清洁能源供应与数据中心设计之间的差异变得越来越严重。当前,每日AI工具疑问诸如Chatgpt之类的问题消耗了许多复杂的复杂(例如,在深度研究中的推论)。将来,AI代理商的普及以及Hyperscala数据中心的创建可能会进一步加强能源挑战。专家警告说,当前的能耗数据仅揭示冰山的提示和AI的强迫流行使人们难以做出有关能源和气候问题的明智决定。这次AI革命的真正能源需求仍然是一个需要 - 深度调查的问题。未来问题国家劳伦斯·伯克利实验室报告将基于美国AI的具体报告。到2028年,能源需求增加到每年的Terawatt 165-326小时,超过了所有数据中心电力的目前消耗,为美国家庭提供了22%。 uu。排放量相当于120,000发,1,600发 - 返回时间。报告表明,AI技术的传播和服务器性能的跃升是数十年停滞后数据中心消费增加的主要原因。从2024年到2028年,美国数据中心的电力消耗百分比可能从4.4%增加到12%。高科技巨头的行动证实了这一趋势。柔软的银行,OpenAI,Oracle和EAU MGX计划在美国投资5000亿美元。德克萨斯州阿比林市的第一个数据中心已经开始建设,其中包括八座棒球场所的建筑物。人类还建议美国增加50吉瓦到2027年的电力。在国际一级,OpenAI声称要促进和“促进”马来西亚和其他地方的数据中心的建设。使人工智能民主化,通过核能解决能源问题,重新启动中央蒂古斯并重新启动电气公司。麻省理工学院技术评论试图与Google,OpenAI和Microsoft进行沟通,以询问AI模型推断能源消耗的细节,但仅收到了含糊的回应。 Openai强调“效率”,微软避免谈论数据中心转换的细节,而Google仅提及了TPU芯片的优化。劳伦斯·伯克利(Lawrence Berkeley)团队批评了业务数据的不透明性,合理地预测了AI的需求和能量排放。更严重的是,普通消费者可以通过上涨价格间接补贴AI基础设施。总而言之,IA有望解决气候问题,但它已成为具有高能源的行业。技术公司强调效率优化,但是特定特定的能源消耗。由于AI被整合到无处不在的生活中,因此这种“黑匣子的扩展”意味着社会不知名地被迫招致能源和环境成本。原始链接:https://www.technologyreview.com/2025/05/20/20/1116327/ai-energy-energy-usage-climate-climate-footprint-big-tech/