算力狂飙电力承压 英伟达、英特尔争相推出节能方案
当地时间8月26日(rì),OpenAI硬件设施负(fù)责人Trevor Cai在Hot Chips 2024上发表了长达一小时的演讲,主(zhǔ)题为“构建可扩(kuò)展的AI基础设施”。他(tā)指(zhǐ)出,OpenAI的一(yī)项重要观察结果是(shì),扩大规模可以(yǐ)产生更好、更有用的人工智 能(néng)(AI)。
作(zuò)为全球(qiú)芯片行业影响力最大的会议之一(yī),Hot Chips于每年8月份在斯坦(tǎn)福大学举行。不同于其他行业(yè)会议以(yǐ)学术研究为主,Hot Chips是一(yī)场产业界的盛会,各大处理(lǐ)器公司会在每年的会上展现(xiàn)他们最新的产品以(yǐ)及在研的产品(pǐn)。
《每日经济新闻》记者注意到,AI浪潮推动(dòng)数据中心激增,同时(shí)也伴随(suí)着(zhe)能源需求的(de)激增。在(zài)这样的背景下,此次的Hot Chips大会上(shàng),围绕人(rén)工智能(néng)的(de)议题比以(yǐ)往任(rèn)何一届都更加活(huó)跃。Trevor Cai的演讲着眼于解决能源和算力之间的(de)问题,英特尔、IBM和英(yīng)伟达等则是提出了更(gèng)节能(néng)的技术方(fāng)案(àn)。
摩根士丹利在8月份发布的研(yán)究中(zhōng)预测称,生(shēng)成式AI的电力需求将在未来几年(nián)内每年飙升75%,预(yù)计到2026年,其(qí)消耗的能源量将与西班牙在2022年的消耗量相当。科技巨头们该如(rú)何应(yīng)对能(néng)源挑战?
聚焦(jiāo)“节能(néng)方案”
当地时间8月26日,一年(nián)一度(dù)的半导(dǎo)体企业(yè)盛会Hot Chips2024在斯坦福大学纪念(niàn)礼堂(táng)举行,今年是第36届(jiè)。
从会议第一(yī)天的情况来看,大部分的话题都集中在了更节(jié)能(néng)、安 全且可扩 展的大规模AI服务器部署方案(àn)上。
OpenAI硬件负责(zé)人Trevor Cai发表了“可预测的扩展(zhǎn)和基础设施(shī)”主题演(yǎn)讲,谈到了提升计算(suàn)能力(lì)所带来的可预测的(de)扩展(zhǎn)效(xiào)益,这也是OpenAI自成立之初(c算力狂飙电力承压 英伟达、英特尔争相推出节能方案hū)就关注的重点。一(yī)个(gè)重要的观察(chá)结果是,扩大 规模可以产生更好、更有用的(de)人工(gōng)智能(néng)。算力狂飙电力承压 英伟达、英特尔争相推出节能方案“每次计(jì)算量翻倍,都会得到更好的结(jié)果。模型 的能力和计算资(zī)源的消耗(hào)是呈指数级别上升的。自2018年以来,行(xíng)业中前(qián)沿模型的计算量每年增长约(yuē)4倍。”他说道。
最初(chū),GPT-1只需几周的时间完成训练。如今,它已经扩展到需要庞大的GPU集群(qún)。因此(cǐ),OpenAI认为AI的基础建设需要大量投资,因(yīn)为计算能(néng)力的提升已经产生(shēng)了超过8个数量级的效益。
似乎是(shì)为了呼(hū)应OpenAI的演讲 ,各大公司的演讲也不约而同地提(tí)到了大(dà)规模(mó)部署AI服务器的计划方案。
IBM在大会上披露了即将推出的IBM Telum II处理器和IBM Spyre加速器(qì)的架构细节。新技术旨在显著扩展(zhǎn)下一代(dài)IBM Z大型机(jī)系统的处理能力,通过一种新(xīn)的AI集成(chéng)方法帮(bāng)助加速传统AI模型和大型语言(yán) AI模型的协同(tóng)使用。IBM特别强调这次更新的先(xiān)进I/O技术旨在(zài)降(jiàng)低能耗和数(shù)据中心占用空(kōng)间(jiān)。
英伟达也在大会上放出了最(zuì)新的(de)AI集(jí)群架构Blackwell的相关 消(xiāo)息。英伟达(dá)称(chēng),Blackwell拥有6项(xiàng)革命性技术,可支持(chí)多达10万亿参数的模型进行AI训练和(hé)实时大(dà)语言模型(LLM)推(tuī)理(lǐ)。值(zhí)得注意的是,英伟达的(de)Quasar量算力狂飙电力承压 英伟达、英特尔争相推出节能方案(liàng)化系(xì)统(tǒng)用于确(què)定可以使用(yòng)较低精 度的内容,从而减少计算和存储。英伟达表示他们的宗旨就是在提高能源效率的同时为AI和加速(sù)计算性能提供新(xīn)标准。
除此之外,英特尔、博通、海力士等公司的演(yǎn)讲中均提到了更(gèng)节(jié)能的技术方案。
能源需求激增
科技巨头们着眼“更节能的”技术方案的根(gēn)本原因在于,当前(qián)人工智能热潮正在增加更强大的处理器以及(jí)保持数据中(zhōng)心冷却所需的能源需求。
当前,微软、Alphabet和Meta等大型科技公司正(zhèng)在(zài)投资数十亿美元建设数据中心基础设施(shī),以支持生成式人工智能,但数据中心的激增也伴随着能(néng)源需求的(de)激增。
据彭博社报道,仅去年,大型科技公司就向(xiàng)数据中心设施投(tóu)入了(le)约1050亿美元。谷歌、苹果和特(tè)斯拉等公司不断(duàn)通过新产品和(hé)服(fú)务增强AI能力。每(měi)项AI任务(wù)都需要(yào)巨大 的计算能力,这意味着数据中心(xīn)会消耗大量电力。国际能源署(IEA)预(yù)测,到2026年,全球数据中心每年使用的能源(yuán)量将相当于日本的(de)电力消耗量。
Hugging Face的人工智能和气候(hòu)负责人Sasha Luccioni提(tí)到,虽然训练(liàn)AI模型需(xū)要耗费大量能(néng)源(例如,训练 GPT-3模型耗(hào)费了(le)大约1300兆瓦时的电力,而GPT-4的训练消耗是GPT3的50倍),但(dàn)通常只(zhǐ)进行(xíng)一次(cì)。然而,由于查(chá)询量(liàng)巨大,模型生成响应可能需要更多能源。
例如,当用户向ChatGPT等AI模型提问时,需要向数据中心发送请求,然后强大的处理器会生成响(xiǎng)应。这个过程虽然很快,但(dàn)消耗的能量也是巨大的。根据艾伦人工智能研究所(suǒ)的数据,对ChatGPT进行一次查询所消耗的电量相当于为灯泡点亮20分钟,是(shì)简单Google搜索耗电量的10倍以上。
然而(ér),全球的电力资源有(yǒu)限,而(ér)数据中(zhōng)心需要持续稳定的电力供应来运行服务器和其他核心运(yùn)营设备。如果能源(yuán)供应不稳定,停机(jī)可能会(huì)给企业和其他用户造(zào)成重大经济损失。此外,巨大的能源消耗也引发了人们对环境的(de)担忧(yōu)。
为应对这一(yī)挑战,科(kē)技公司们开始寻找(zhǎo)解决方案。
部分公司选(xuǎn)择更清洁且高效的能源供(gōng)给,如核能。亚马逊最近在美国宾夕法尼亚州东北部购买了一个价(jià)值6.5亿美元的 核能数 据中心园区设施,该(gāi)设施将使(shǐ)用核(hé)反应堆产生的高达40%的电(diàn)力,最终使(shǐ)亚马逊 能够减少对当地电网的(de)依赖。与此同时(shí),微软聘请(qǐng)了(le)核专(zhuān)家来带头寻(xún)找这种替代电源。微软还与核电站运营(yíng)商签订了合(hé)同协议,为其位于弗吉尼亚(yà)州的(de)一(yī)个(gè)数据中心提供电力。
除(chú)此之外,科技公司们不仅(jǐn)在前文所提到的(de)一(yī)系列芯片节能技术进(jìn)行努(nǔ)力,也在其他硬件设施和(hé)技术上下(xià)足了功(gōng)夫。
谷歌正(zhèng)在开发人(rén)工智能专 用芯片,例如张量处理单元(TPU),这些芯片针对人工智能任务进行(xíng)了优(yōu)化,而不是使用为游戏技术创建的图形处理单元(yuán)(GPU)。
英伟达针对Blackwell芯片的(de)直(zhí)接液(yè)体冷却系统还宣布了一项研究,研究(jiū)表明了(le)如何重(zhòng)新利用从(cóng)服务器中吸收的热量并将其回收到数据中心。据英伟达估计,冷却最多可减少数(shù)据中心设施耗电量的28%。
然而,威斯康星大学麦迪逊分校(xiào)的教授辛克莱提醒,杰文斯悖论在这里依然适用。“提高人工智能的效率,虽然减少了单(dān)次能耗,但整体使用率的增加(jiā)最终会导致总体能耗的上升。”辛克(kè)莱解(jiě)释道。这个悖论不仅适用于19世(shì)纪的火(huǒ)车煤炭使用,同(tóng)样适(shì)用于当今的人工智能和电力(lì)消耗。
未经允许不得转载:橘子百科-橘子都知道 算力狂飙电力承压 英伟达、英特尔争相推出节能方案
最新评论
非常不错
测试评论
是吗
真的吗
哇,还是漂亮呢,如果这留言板做的再文艺一些就好了
感觉真的不错啊
妹子好漂亮。。。。。。
呵呵,可以好好意淫了