算力狂飙电力承压 英伟达、英特尔争相推出节能方案
当地时(shí)间8月26日,OpenAI硬件设施负责(zé)人Trevor Cai在Hot Chips 2024上发表了长达一小时的演讲,主题为“构建可扩展的AI基础设施”。他指出,OpenAI的(de)一项重(zhòng)要观察结(jié)果是(shì),扩大规模可以产生更好、更有用的(de)人工智能(AI)。
作为全球芯片行业影(yǐng)响力最大的(de)会议之一,Hot Chips于每年8月份在斯(sī)坦福大学举行。不(bù)同于其(qí)他(tā)行(xíng)业会议以学术研究为主,Hot Chips是一场产业界的(de)盛会,各大处理器公司会在每年的会上展现他们最新的(de)产品以(yǐ)及在研的产品。
《每日经济新(xīn)闻》记(jì)者(zhě)注意到,AI浪潮推动数据中心激增,同时也伴随着能源(yuán)需求的激增。在这样的背景下,此次的Hot Chips大会上,围绕人工智能(néng)的议题(tí)比(bǐ)以往任何一届都更加活(huó)跃。Trevor Cai的演讲着眼于解决能源和算力之间的(de)问题(tí),英特尔、IBM和(hé)英(yīng)伟达等(děng)则是提(tí)出了更节能的技(jì)术(shù)方案。
摩根士丹利在8月(yuè)份发布的研究中预测(cè)称,生(shēng)成式AI的电力需求将在(zài)未来几年内每(měi)年飙升75%,预计到2026年,其消耗的能源量将与西班牙在2022年的消耗(hào)量相当。科技巨头们该如(rú)何应对能(néng)源挑战(zhàn)?
聚焦“节(jié)能方(fāng)案”
当(dāng)地时间(jiān)8月26日,一年一度(dù)的半导体企业盛会Hot Chips2024在斯坦福大学纪念礼堂举 行 ,今年是第36届。
从会议第(dì)一(yī)天的 情况来看,大部分的(de)话题都集中在了更节能、安全且可扩展的大规模AI服务器(qì)部署方案上。
OpenAI硬件(jiàn)负责人Trevor Cai发(fā)表了“可预测的扩展和基础设施”主题演讲,谈到了提(tí)升计算能力所带(dài)来的可预测的扩展效益,这也(yě)是OpenAI自成立之初就关注的重点。一个重要的观察结果是,扩大规模可以产生更(gèng)好、更有用的人工智能。“每次(cì)计算量翻倍,都会得到更好的(de)结果(guǒ)。模型的(de)能力和计(jì)算资源的消耗是呈指数级别上升的。自2018年以来(lái),行业中(zhōng)前沿模型的计算量每年增长约4倍。”他说道。
最初,GPT-1只需几周的时间完成训练。如今(jīn),它已经扩(kuò)展到需要(yào)庞大(dà)的GPU集群。因此,OpenAI认(rèn)为AI的基础建设需要大量投(tóu)资(zī),因为计算能力的提升已经产生了超过(guò)8个数量级的(de)效益(yì)。
似乎是为了呼应OpenAI的演讲,各(gè)大公司的(de)演讲也不约而同地(dì)提到了(le)大规(guī)模部署(shǔ)AI服务器的计划方案。
IBM在大(dà)会上披(pī)露了即将推出的IBM Telum II处(chù)理(lǐ)器和IBM Spyre加速器的架构细节。新技术旨在显著扩展下一代IBM Z大型机(jī)系统的处理能力,通过一种新的AI集成方法帮助加速传统AI模型和大(dà)型语言 AI模型的协同使用。IBM特别(bié)强调这次更新的(de)先进I/O技术旨(zhǐ)在降低能耗和数(shù)据(jù)中心占用空间。
英伟达(dá)也在大会上放(fàng)出了最新的AI集群架构Blackwell的(de)相关消(xiāo)息。英伟达(dá)称,Blackwell拥有6项革命性技术,可支(zhī)持多达10万(wàn)亿参数的(de)模型进行AI训练和实时大语言模型(xíng)(LLM)推理。值得注意的(de)是(shì),英伟达的Quasar量化(huà)系(xì)统用于确定可以使用较(jiào)低精度的内(nèi)容,从而减少(shǎo)计算(suàn)和存(cún)储。英伟达表示他们的宗旨就是在提高能源效率的同时(shí)为AI和加速计算性能提供新标准。
除此之外,英特尔、博通、海力士等公司的演讲(jiǎng)中(zhōng)均提(tí)到了更节能(néng)的技术方案。
能源需求激增
科(kē)技巨头们着(zhe)眼“更节能(néng)的(de)”技术方案的根本原因在于,当前人工智能热潮正在增加更强大的处(chù)理器以及(jí)保(bǎo)持数据中心冷却所需的能源需(xū)求。
当前,微软、Alphabet和Meta等大型科技公(gōng)司(sī)正在投资数十亿美(měi算力狂飙电力承压 英伟达、英特尔争相推出节能方案line-height: 24px;'>算力狂飙电力承压 英伟达、英特尔争相推出节能方案)元(yuán)建设(shè)数据中心基(jī)础设施,以支持生成式人工智能(néng),但(dàn)数(shù)据(jù)中心的(de)激(jī)增也伴随着能源需求的激增。
据彭博社报道,仅去年,大型科技公(gōng)司(sī)就向数据中心设施投入了约1050亿(yì)美元。谷歌(gē)、苹果和特斯拉等公司不断通过新产品和服务增强AI能力。每(měi)项AI任务都需要巨大的计算能力,这意味着数据中心会(huì)消耗大量 电力。国际能源署(IEA)预测,到2026年,全球数据中(zhōng)心每年(nián)使用的能源量将相当于日(rì)本的电力消耗量。
Hugging Face的人工智能和气候(hòu)负(fù)责人Sasha Luccioni提到,虽然训练AI模型需要耗费大量能 源(例如,训练 GPT-3模型耗费了大约1300兆瓦(wǎ)时的(de)电力,而GPT-4的训练消耗是GPT3的(de)50倍),但通常只(zhǐ)进行一次。然而,由于查询量巨大,模型(xíng)生成响应可能需要更(gèng)多能源。
例如,当(dāng)用户(hù)向ChatGPT等AI模型提问时,需要向数据(jù)中心(xīn)发送请求,然后强(qiáng)大的处理器会生成响应。这个过程虽然很快,但消耗的能量也是巨大的。根据艾伦(lún)人工智能研究所的数据,对ChatGPT进(jìn)行(xíng)一(yī)次查(chá)询所消耗的电量相当于为灯泡点亮20分钟,是简单Google搜索(suǒ)耗电量的10倍(bèi)以上。
然而(ér),全球的电(diàn)力资源有限,而数(shù)据中 心(xīn)需要持续稳定的电力供应来运(yùn)行服务器(qì)和其他核心运营设备。如果能源供 应不稳定,停机可能会(huì)给企业和其他用户造成重大经济损失。此(cǐ)外,巨大的能(néng)源消耗也引发了人们对环境(jìng)的担忧。
为应算力狂飙电力承压 英伟达、英特尔争相推出节能方案(yīng)对这一挑(tiāo)战,科技公司们开(kāi)始寻找 解决方案。
部分公司选择更清洁且高效的能源供给,如核(hé)能。亚马逊最近在美(měi)国宾(bīn)夕法尼亚州东北(běi)部购买了一个价值6.5亿美元的(de)核能数据中心园区设施,该设施将使用核反应堆产生的高达40%的电(diàn)力,最终使亚马逊能够(gòu)减(jiǎn)少对(duì)当地电(diàn)网(wǎng)的依赖。与此同时,微软(ruǎn)聘请了核专家来带头寻(xún)找这种替代电(diàn)源。微软(ruǎn)还与核电站运营商签订(dìng)了合同协议(yì),为其位于弗吉(jí)尼亚(yà)州的一个数据中心提供电(diàn)力。
除此之外(wài),科(kē)技公司们不仅在(zài)前文所提到的一系列芯片节能技 术进行努力(lì),也在其他硬件设施和技术(shù)上下足了功夫。
谷歌正在开发人工智能专用芯片,例如张量(liàng)处理单元(TPU),这(zhè)些芯片针(zhēn)对(duì)人工智能(néng)任务进行了优化,而不是使用为(wèi)游戏技术创(chuàng)建的(de)图形处理单元(yuán)(GPU)。
英伟达(dá)针(zhēn)对Blackwell芯片(piàn)的(de)直接液体冷却系(xì)统还宣布了一项研究(jiū),研究表明了如何重(zhòng)新利用从服务器(qì)中吸收的热量并将(jiāng)其回收到数据中心。据英伟达估计,冷却最多可减少数据中心设施耗电量的28%。
然而,威斯康星大学麦迪 逊分校的教授辛克莱提醒,杰文斯悖论在这里依然适用。“提高人工智能的(de)效率,虽(suī)然减(jiǎn)少了单次(cì)能耗,但整(zhěng)体使用率(lǜ)的增加最终会导致(zhì)总体能耗的上升。”辛克(kè)莱解释道。这个悖论不仅适用于(yú)19世纪的火车煤(méi)炭使用,同(tóng)样适用于(yú)当今的人工智能和电(diàn)力(lì)消耗。
未经允许不得转载:橘子百科-橘子都知道 算力狂飙电力承压 英伟达、英特尔争相推出节能方案
最新评论
非常不错
测试评论
是吗
真的吗
哇,还是漂亮呢,如果这留言板做的再文艺一些就好了
感觉真的不错啊
妹子好漂亮。。。。。。
呵呵,可以好好意淫了