算力狂飙电力承压 英伟达、英特尔争相推出节能方案
当地时间8月(yuè)26日,OpenAI硬件(jiàn)设(shè)施负责人Trevor Cai在Hot Chips 2024上发(fā)表了长达一小时的演讲(jiǎng),主(zhǔ)题为“构建可扩展的A算力狂飙电力承压 英伟达、英特尔争相推出节能方案I基础设施”。他指出,OpenAI的一项(xiàng)重要(yào)观察结果是,扩大规模可(kě)以产生更好、更有用(yòng)的人工智能(AI)。
作为全球芯片行业(yè)影响力最大的会议之一,Hot Chips于每年(nián)8月份在斯坦福大学举行。不同(tóng)于其他行业会议以 学术研究(jiū)为主,Hot Chips是一场产业界的盛会,各大处理器 公司会在每(měi)年(nián)的(de)会上(shàng)展现(xiàn)他(tā)们(men)最新 的产品以及在研的产(chǎn)品。
《每日经济新闻》记者注意到,AI浪潮推动数据中心激增,同时也伴随着能源需求的(de)激增。在这样的背景下,此次的Hot Chips大会上,围绕人(rén)工智能的议题比以往(wǎng)任何一(yī)届都更加活跃。Trevor Cai的演讲着眼于解决能源和算力之间的问题,英特(tè)尔、IBM和(hé)英伟达等则是提出了更节能的技术方案。
摩根士丹利在8月份发布的研究中预测称,生(shēng)成式AI的电力需求将在未来几年内每(měi)年飙升75%,预计到(dào)2026年,其消耗的能源量将与西班(bān)牙在2022年的消耗量相当。科(kē)技巨头们该如何应对能源挑战?
聚焦“节(jié)能方案”
当地时间8月26日,一年一度的半导体企业盛会Hot Chips2024在斯坦福大学纪(jì)念礼堂举行,今年是第36届(jiè)。
从会议第一天的情况来(lái)看,大部分的话题都集中(zhōng)在了(le)更节能、安全且(qiě)可扩展的(de)大规模AI服务器部署方(fāng)案上。
OpenAI硬件负责人Trevor Cai发表了“可(kě)预测的扩展和基础设施”主(zhǔ)题(tí)演讲,谈到了提升(shēng)计算(suàn)能力所带来(lái)的可预测的扩 展效益(yì),这(zhè)也是OpenAI自成立之初就关注的重(zhòng)点。一个重要的观察结果是,扩大规模可以产生(shēng)更好、更有用的人工智能(néng)。“每次计算量翻倍,都会得到更好的(de)结果。模型的能力和计算资源的消(xiāo)耗是呈指数级别上升的。自2018年以来,行业(yè)中前沿(yán)模型(xíng)的计算量每年增长约4倍。”他说道。
最初,GPT-1只需几周的 时间(jiān)完成训练。如今,它(tā)已经扩展(zhǎn)到(dào)需要庞大的GPU集群。因此,OpenAI认为AI的基础建设需要大量投资,因为(wèi)计(jì)算(suàn)能力(lì)的提升已经产生了超过8个数量级的效益。
似乎是为了呼应OpenAI的演讲,各大公司的演讲也不约而同地提到了大规模部署(shǔ)AI服务器的计划(huà)方案(àn)。
IBM在大(dà)会(huì)上披露了即将推出的IBM Telum II处理(lǐ)器和IBM Spyre加速(sù)器(qì)的架构细节。新技术旨(zhǐ)在显著扩(kuò)展下一代IBM Z大型机系统(tǒng)的处理能力,通过一种新的AI集成方法帮助加速传统AI模型和大型语言(yán) AI模型的协同使用。IBM特别强调这次更(gèng)新(xīn)的先进I/O技(jì)术旨在降低(dī)能耗(hào)和数据中心占用空(kōng)间(jiān)。
英伟达也在大会上 放出了最新(xīn)的(de)AI集群架构Blackwell的相(xiāng)关消息。英伟达称,Blackwell拥有6项革(gé)命性技术,可支持多达(dá)10万亿参数(shù)的模型进行AI训练和 实时大语言模型(LLM)推理。值得注意(yì)的是,英伟(wěi)达的Quasar量化系统用于确定可以使用较低精度 的内容,从而减少计(jì)算和(hé)存储。英伟达表示(shì)他们的宗旨就是在提高能源效率(lǜ)的同时为AI和加(jiā)速计算性能提(tí)供新标(biāo)准。
除此之外,英特尔、博通、海力士等公司的演讲中均提到了(le)更节(jié)能的技术方案。
能源需求(qiú)激增
科技巨(jù)头们着(zhe)眼(yǎn)“更节(jié)能的”技术方案的根本原因 在于,当前人工智能热(rè)潮正(zhèng)在增加更强大的处(chù)理器以及保持数据中心冷却所需(xū)的能源需求(qiú)。
当前,微软、Alphabet和Meta等大(dà)型科技公司正在投资数十亿美元建设数据中心基础(chǔ)设施,以支持生成式(shì)人工智能,但数据中心的激增也伴随着能源需求的激增。
据彭博社报(bào)道,仅(jǐn)去年,大型科技公(gōng)司就向数据中心设施投入了约(yuē)1050亿(yì)美元。谷歌、苹果和特斯拉等(děng)公司不断通过新产品和服务增强(qiáng)AI能力。每项AI任(rèn)务都需(xū)要巨大的计算能力,这意味着数据(jù)中心会消耗(hào)大(dà)量电力。国际能源署(IEA)预测,到2026年,全球数据中心(xīn)每年(nián)使用(yòng)的能源量将相当于(yú)日本的电(diàn)力消耗量(liàng)。
Hugging Face的人工智能(néng)和气候负责人Sasha Luccioni提到,虽然训(xùn)练(liàn)AI模型需要耗费(fèi)大量能源(例如,训练(liàn) GPT-3模型耗费了大约1300兆瓦(wǎ)时的电力(lì),而GPT-4的训(xùn)练消耗是GPT3的(de)50倍),但通常只进(jìn)行一次。然而,由于查询量巨大,模型(xíng)生成响应可能需(xū)要更(gèng)多能(néng)源。
例如,当用(yòng)户向ChatGPT等AI模型提问时,需要向数据中心发送(sòng)请求,然后强大的处(chù)理器会生成响应。这个过程(chéng)虽然很快,但消耗的能量也是巨(jù)大的(de)。根据艾伦人工智能研究所的数据,对(duì)ChatGPT进行一次查询所消耗的电量相当于(yú)为灯泡点亮20分钟,是简单Google搜索(suǒ)耗电量的10倍以上。
然而,全球的电(diàn)力资 源有限,而数据(jù)中心需要(yào)持续(xù)稳(wěn)定(dìng)的电(diàn)力供应来运行服务器和其(qí)他核心运(yùn)营设(shè)备。如果能源供应不稳定,停机可能会给企业和其他用(yòng)户 造(zào)成重(zhòng)大经济损失。此外,巨大的能源消耗也引发了(le)人们对环境的担(dān)忧。
为应对这一挑战,科技公司们(men)开始寻找解决方案。
部分公(gōng)司选择更清洁且高效的能源供给,如核能。亚马逊最近在美国宾夕法尼亚州东北(běi)部购买了一个价值6.5亿美元的(de)核能数据中心园区设施,该设施将使(shǐ)用核算力狂飙电力承压 英伟达、英特尔争相推出节能方案反(fǎn)应堆(duī)产生(shēng)的(de)高(gāo)达40%的电力,最终使亚马逊能 够减少对当地电网的依赖。与此同时,微软聘请了核专家来(lái)带头寻找这种(zhǒng)替代电(diàn)源。微软还(hái)与核(hé)电站运营商签订了合(hé)同协(xié)议,为其位于弗吉尼亚州(zhōu)的一个数据中心提供(gōng)电(diàn)力。
除(chú)此(cǐ)之外,科技公司们不仅在前文所提到的一系列芯片节能技术进行努力,也在其他硬件(jiàn)设施和技术上下(xià)足了功夫。
谷歌正在开发人工智能专用(yòng)芯片,例如张(zhāng)量处理单元(TPU),这些芯片针(zhēn)对人工智能任务进行了优化,而不是使用为游戏技术创建(jiàn)的(de)图形处理单元(yuán)(GPU)。
英(yīng)伟达针对Blackwell芯片的直接液体(tǐ)冷却系统还宣布了一项研究,研究(jiū)表明了如何重新利用从服务器中吸 收的(de)热量并将其回收到数据中心(xīn)。据(jù)英伟达(dá)估计,冷却最(zuì)多可减少数据中心设(shè)施耗电量的(de)28%。
然而(ér),威斯(sī)康星(xīng)大学麦迪逊分校的教授辛克莱提醒,杰文斯悖论在(zài)这(zhè)里依然适用(yòng)。“提(tí)高人工智能的效率,虽然(rán)减少了单次能耗,但整体使(shǐ)用率的(de)增加最(zuì)终会导(dǎo)致总 体能耗的(de)上升。”辛克莱(lái)解释算力狂飙电力承压 英伟达、英特尔争相推出节能方案道。这个悖论不仅适用(yòng)于(yú)19世纪的火车煤 炭(tàn)使用,同样适用于当今的人工智能和电力消耗。
未经允许不得转载:天津电机维修_天津进口电机维修_天津特种电机维修_天津发电机维修 算力狂飙电力承压 英伟达、英特尔争相推出节能方案
最新评论
非常不错
测试评论
是吗
真的吗
哇,还是漂亮呢,如果这留言板做的再文艺一些就好了
感觉真的不错啊
妹子好漂亮。。。。。。
呵呵,可以好好意淫了