游戏传奇首页
游戏我的天下首页
最好看的新闻,最实用的信息
05月20日 4.7°C-11.5°C
澳元 : 人民币=4.84
悉尼
今日澳洲app下载
登录 注册

ChatGPT 一天“吃”50万度电,AI的尽头是能源?(组图)

12天前 来源: 三联生活周刊 原文链接 评论5条

人们通常认为我们吃下去的粮食是用来干活的,但其实思考的能耗才是最高的,比如仅占体重2%的大脑消耗了人体20%的能量。同理,人工智能也是很耗能的,虽然今天的人工智能仍处于初级阶段,但其能耗已经不容忽视了。如果未来科学家们真的开发出类似人脑的超级通用人工智能,我们有能力为其供电吗?地球的环境承受得了吗?

主笔 | 袁越

因为ChatGPT的横空出世,2023年被称为人工智能(AI)元年。这款由美国人工智能公司OpenAI开发的通用聊天机器人于2022年11月30日正式上线,仅用两个月的时间就吸引了超过一亿的活跃用户,创下消费级网络应用程序扩张速度的世界纪录。

ChatGPT的成功迅速引来了一批跟风者,比如微软(Microsoft)很快将GPT-4引入新版必应(Bing)搜索,还推出了基于GPT-4的办公软件人工智能助手Microsoft 365 Copilot。谷歌(Google)则推出了基于自己开发的大语言模型(LLM)的搜索引擎Bard,并很快升级为一款全新的生成式人工智能聊天机器人Gemini。百度不甘示弱,于2023年3月16日发布了自己的大语言模型文心一言,揭开了人工智能国产化的序幕。阿里和科大讯飞等国内公司也立刻跟进,纷纷推出了自己的人工智能应用。用户们不但可以和人工智能对话,还能让人工智能帮助自己查询各类信息、翻译外文资料、设计旅游行程,甚至帮自己写论文或者写代码。

ChatGPT 一天“吃”50万度电,AI的尽头是能源?(组图) - 13月18日,英伟达首席执行官黄仁勋在圣何塞举行的英伟达GTC开发者大会上发表主题演讲。此次开发者大会重点介绍新的芯片、软件和人工智能处理器技术(视觉中国 供图)

很快地,基于大语言模型的人工智能便扩展到文本应用之外的其他领域。2023年3月25日,一家总部设在旧金山的人工智能公司Midjourney推出了V5版本,用户可以通过提示词来创作一幅画。这个软件连同OpenAI推出的DALL·E 3,在互联网上掀起了一波人工智能绘画热,至今方兴未艾。

进入2024年之后,这股人工智能热潮不但火势未减,反而越烧越旺。先是基于DALL·E 3技术的视频生成应用Sora于2月15日上线,其令人惊叹的视觉效果迅速火遍全球,让很多视频工作者哀叹自己即将失业。两个星期之后,Suno AI的V3版本上线,用户可以通过提示词免费创作两分钟的歌曲或者音乐,其质量同样让人惊叹,这回轮到音乐工作者担心自己的职业前途了。

事实上,人工智能超强的领域扩展能力和水平提升速度让几乎所有行业的人都产生了不同程度的紧迫感,仿佛这是一头随时可以变身或者膨胀的怪兽。但是,也有一些人相信人工智能对于电力的需求将会限制它的发展速度,其中就包括阿姆斯特丹自由大学(Vrije University Amsterdam)的互联网能源与经济研究者阿莱克斯·德弗里斯(Alex de Vries)。他在2023年10月18日出版的《焦耳》(Joule)杂志上撰写了一篇文章,讨论了人工智能潜在的能源紧缺问题。

这里所说的能源不是使用端个人设备的耗电,而是人工智能模型的训练和使用耗能。其中训练大模型是一项相当复杂的任务,输入的数据量和分析这些数据所需的算力都是天文数字。公开数据显示,光是GPT-3的训练过程就消耗了1287MWh(兆瓦时,1兆瓦时相当于1000度电)的电能,大约相当于1000户普通中国家庭一年的耗电量。

这个耗电量不算少,尤其要考虑到这只是一款软件在准备过程中的能耗,真可谓是前无古人了。但人工智能的高能耗绝不仅仅体现在前期训练上,其后续的使用过程才是最耗电的。

众所周知,每当我们在电脑上输入一个新网址,或者在手机上点开一个新视频时,我们手里的终端设备都要和某个数据中心(data center)的服务器发生信息交换。数据中心还会根据任务的不同对输入数据进行或繁或简的计算,这些过程都是需要消耗能量的。根据德弗里斯那篇文章所提供的数据,全球搜索引擎排名第一的谷歌每搜索一次的平均能耗约为0.3Wh(瓦时),看似很低,但考虑到谷歌每天平均需要处理90亿次搜索请求,累积起来就是个很大的数字了。

如果未来谷歌用Gemini代替谷歌搜索,即把所有的搜索请求全都用大语言模型来处理一遍的话,其能耗将会成倍增长。谷歌母公司“字母表”(Alphabet)的董事长约翰·亨尼斯(John Hennessy)在2023年初接受媒体采访时承认,如果未来谷歌搜索全盘人工智能化的话,平均每次搜索的能耗将至少提高到原来的10倍,即每次搜索耗电3Wh。这样算下来,未来谷歌的人工智能搜索引擎每天的能耗将达到27GWh(吉瓦时,1吉瓦时相当于100万度电),即2700万度电;每年的总能耗将达到9.855TWh(太瓦时,1太瓦时相当于10亿度电),即98.55亿度电。

ChatGPT 一天“吃”50万度电,AI的尽头是能源?(组图) - 2数据中心能源消耗巨大(视觉中国 供图)

在这篇文章中,德弗里斯还从供给侧对人工智能的耗电情况进行了估算。目前全球人工智能公司的服务器市场几乎被英伟达垄断了,其全球市场份额高达95%以上,所以仅从英伟达这家公司的出货情况就能计算出一家人工智能公司的能耗数据。举例来说,按照一家独立研究机构SemiAnalysis的计算,OpenAI大约需要3617个英伟达HGX A-100服务器来支持其ChatGPT的使用,这些服务器一共包含28936个图形处理器(GPU),每天的总能耗高达564MWh,即56.4万度电。

同理,这家机构估计如果谷歌搜索全盘人工智能化的话,将需要512821个英伟达HGX A-100服务器。如果按照每个服务器的额定功率为6.5kW来计算的话,光是这些服务器每天就将消耗80GWh的电力,相当于每年耗电29.2TWh。另一家独立研究机构New Street Research的估算结果稍低,认为谷歌的人工智能改造将需要40万个英伟达服务器,每天耗能62.4GWh,每年耗电22.8TWh。这两个估算结果要比前文从需求侧给出的计算结果高一些,但属于同一个数量级。

考虑到谷歌公司2021年全年的能耗仅为18.3TWh,当年人工智能部门的能耗仅为10%~15%这一事实,未来谷歌如果全盘人工智能化的话,其总体能耗将会是一个令人震惊的数字。根据德弗里斯文章中的估算,仅仅谷歌的人工智能部门几年后的年耗电量就有可能和爱尔兰全国的电力消耗量(29.3TWh)相当。要知道,三峡水电站全年的发电量大约为100TWh。换句话说,仅仅谷歌一家公司的人工智能部门就有可能在不远的将来消耗掉三峡水电站三分之一的电力。

ChatGPT 一天“吃”50万度电,AI的尽头是能源?(组图) - 3《为爱守护》剧照

那么,全球的情况是怎样的呢?国际能源署(IEA)不久前刚刚发布了2024版的全球电力报告,发现2022年的全球数据中心、人工智能和加密货币这三大板块的总耗电量达到了460TWh,几乎占到全世界总用电量的2%。其中加密货币贡献了大约0.4%,也就是说数据中心和人工智能大约消耗了全球总用电量的1.6%。其中40%的能耗来自计算,40%来自冷却,20%来自其他设备。随着ChatGPT的异军突起,国际能源署预计到2026年时这三大板块的总用电量将翻番,达到1000TWh左右的水平,相当于增加了一个瑞典或者德国的总用电量。

国际能源署的估算之所以没有像前文所说的那样增加10倍,除了未来电脑芯片的计算效率不可避免地增加,以及人工智能大模型算法的改进之外,最大的原因就是芯片供应不足。德弗里斯的那篇文章也认为,以英伟达现在的芯片制造能力是不可能立刻为谷歌提供512821个HGX A-100服务器的。再加上如今GPU价格居高不下,谷歌为了购买这些服务器需要投资至少1000亿美元,这将导致谷歌的盈利模式崩溃,所以谷歌也不大可能愿意出这笔钱。

但是,这些专家学者全都低估了科技公司进军人工智能市场的雄心壮志。今年2月,OpenAI 首席执行官山姆·奥特曼(Sam Altman)在接受媒体采访时表示,他正在试图说服阿联酋政府投资7万亿美元在中东建立一个芯片制造厂,打破英伟达在这个行业的垄断地位。一个月之后,一家名为The Information的科技媒体爆料说微软将和OpenAI 一起合作建设一个名为“星际之门”(Stargate)的超级数据中心,为规划中的人工智能部门提供算力。据说这个数据中心将会配备数百万个定制GPU,总投资额高达1150亿美元。

这些新进展清楚地表明,

ChatGPT 一天“吃”50万度电,AI的尽头是能源?(组图) - 4阿姆斯特丹自由大学的互联网能源与经济研究者阿莱克斯·德弗里斯

三联生活周刊:请问你当初是如何进入这一研究领域的?

德弗里斯:我是荷兰中央银行的数据分析师,2014年我创办了一家名为Digiconomist的研究与咨询公司,专门研究数字加密货币的网络欺诈问题。2016年我读到一篇文章,说比特币每一次交易所消耗的电能相当于一个普通美国家庭一天半的耗电量。我对这一事实感到非常不解,想不通为什么一次看似很普通的网上交易需要消耗这么多能量。于是我开始调查这件事,并在公司网站上公布了调查结果。之后我创建了比特币能量消耗指数(Bitcoin Energy Consumption Index),并定期更新。很多机构找到我,希望能获得更详细的信息,于是我开始研究数字加密货币的环境足迹,并为各种学术期刊撰写了多篇论文,讨论了数字货币的能量消耗、水资源消耗和原材料消耗等被大众忽视的环境问题。

三联生活周刊:我们杂志曾经在2022年报道过比特币的能耗问题,当时尚有大约250万枚比特币未被开采出来。两年后的今天,这一数字已经降到了大约200万枚,这是不是意味着挖矿的成本又增加了?

德弗里斯:据我所知,今年比特币的挖矿成本上升了50%,达到了每枚比特币至少3万美元的高位(取决于矿场电费),但现在比特币的市值也到达了6万美元左右,所以挖矿仍然是可以赚钱的。比特币这个行业的能耗其实完全取决于比特币的价值,如果高于挖矿成本的话,这个行业就会继续存在下去。所以说,如果未来比特币的价格越来越高的话,这个行业的耗电量一定会越来越高。

ChatGPT 一天“吃”50万度电,AI的尽头是能源?(组图) - 5《人工智能》剧照

三联生活周刊:你为什么把注意力从比特币转移到人工智能上来了呢?

德弗里斯:这是很自然的事情,因为人工智能和数字加密货币一样,都是很热门的领域,但其环境足迹却都不被大家重视,普通民众对两者巨大的能量消耗没有概念,需要有人来为大家科普这方面的知识。

三联生活周刊:国际能源署最近刚刚发表了一份报告,预测全球数据中心和加密货币的能量消耗有可能在未来的3年里加倍。你怎么看?

德弗里斯:我当然同意,因为国际能源署的预测是基于我去年在《焦耳》上发表的那篇文章做出的。我当时是根据供给侧(也就是服务器)的能耗情况做出的预测,2023年英伟达一共交付了大约10万个人工智能服务器,年耗电量为5.7~8.9TWh,这个数字已经相当可观了。我预计2027年英伟达将会交付150万个服务器,年耗电量将会达到85.4~134TWh,比很多中等国家的耗电量都大,而这就是国际能源署报告中那些预测的来源。但我没想到的是,今年的全球芯片销售情况比我当初预测的最高值还要高,所以我认为我在那篇文章中所做的推断还是偏保守了。

另外,我那篇文章只计算了芯片本身的能耗,没有把数据中心的冷却耗能考虑在内,一般数据中心的冷却能耗会占到总能耗的50%以上。

上述这两个因素叠加在一起,会让未来人工智能的能源危机比我当初预测的更加严重。

ChatGPT 一天“吃”50万度电,AI的尽头是能源?(组图) - 6《人工智能》剧照

三联生活周刊:从供给侧来计算能耗和从需求侧来计算能耗会有什么差别?

德弗里斯:目前看差别不大,因为现在是人工智能的高速发展时期,对算力的需求非常高,芯片生产多少就能卖出多少,而且一定会处于满负荷工作状态,所以对于能耗来说,唯一的限制因素就是供给侧,也就是芯片的供应量。而人工智能领域的芯片市场又是被一家公司(英伟达)垄断的,所以从供给侧来计算能耗既简单又准确。不过,如果将来供给侧出现变化,导致供货充足的话,仅从供给侧计算能耗就不一定准确了。

三联生活周刊:英伟达刚刚推出了一款全新的人工智能服务器Blackwell B200,内部封装了2080亿个晶体管,比上一代H-100服务器多了两倍多,运行速度提升了30倍。因此,虽然其额定功率比上一代服务器增加了近一倍,但单位算力的能耗却下降了。如果这个趋势继续下去的话,未来人工智能行业的能耗会不会不升反降呢?

德弗里斯:我认为不会,因为人工智能的核心原则就是以大为美,这一点和环境保护是正相反的。众所周知,人工智能大模型做得越大,其表现就越稳定,输出信息的质量就越高,比起竞争对手也就越有优势,所以芯片能效的提升一定会促使人工智能公司进一步增加算力,以期打败竞争对手。类似的情况在加密货币领域也发生过,随着挖矿效率的提升,挖矿者反而加大了对设备的投入。相比之下,环保运动追求小而美,两者在原则上是冲突的,所以设备效率提升所带来的环保效应一定会被增加的设备投入抵消掉,最终反而增加了能耗,著名的杰文斯悖论(Jevons Paradox)很早就预言了这一现象的存在。〔注:杰文斯悖论是19世纪英国经济学家威廉·斯坦利·杰文斯(William Stanley Jevons)首先提出来的,他发现煤炭的使用效率越高,对煤炭的需求量就会越大,而不是正相反。〕

芯片效率飞速提升的另一个后果就是增加了电子垃圾。以前数据中心设备的平均寿命大约是6年,现在则缩短了一半,用3年就不得不报废了。

三联生活周刊:一些学者认为,人工智能虽然耗电量很高,但这项技术提高了很多其他行业的生产效率,所以总的来说是对环境有利的,你怎么看?

德弗里斯:这个说法当然是有一定道理的,这就是为什么我认为人工智能要比加密货币好得多的原因。但人工智能的发展虽然从经济角度来看很可能是好的,但从环境角度来看却不一定,因为效率的提高往往意味着需求的提高,后者经常会远大于前者,原因同样是我前面提到过的杰文斯悖论,这方面已经有太多先例了。

ChatGPT 一天“吃”50万度电,AI的尽头是能源?(组图) - 7《无法成为野兽的我们》剧照

三联生活周刊:根据国际能源署的统计,目前全球一共有大约8000个数据中心,其中33%在美国,16%在欧洲,10%在中国。2022年美国数据中心一共消耗了200TWh的电力,占美国总电力消耗的4%,这是一个很高的比例,以至于很多人开始怀疑美国到底能不能完成减排指标。但起码在理论上,数据中心可以建在任何地方,比如那些拥有充足可再生能源潜力的发展中国家。中国西部有着充足的风光资源,而且当地人烟稀少,完全可以通过建造更多的数据中心来消化多余的可再生能源电力。如果全世界都这么做的话,人工智能的能源危机就没那么大了吧?

德弗里斯:我不认为这会从根本上解决这个问题,因为今天的可再生能源并没有多到可以挥霍的程度。绝大多数国家的可再生能源依然紧缺,化石能源的占比依然很高,通过可再生能源发出来的电应该被用于替换火电,这才是最紧迫的事情。

事实上,即使是在发达国家,数据中心的寻址建设也变得越来越困难了。比如Meta公司(前Facebook,即脸书)最近想利用荷兰丰富的风力发电资源在我的家乡建设一个数据中心,但被当地政府拒绝了,因为我们想把风电用在其他更有价值的地方。

这样的案例还有很多,说明数据中心的吸引力正在下降。比如瑞典曾经在2017年制定了一项针对数据中心的税收优惠政策,试图利用本国丰富的水电资源把数据中心吸引过去。但去年他们取消了这项政策,因为他们发现比起巨大的能源消耗,数据中心所能提供的就业机会非常少,远不如把这些电力用在其他领域来得更加划算。再比如,冰岛也不再发展比特币和数据中心产业了,而是决定把多余的廉价电力用来种蔬菜,因为他们意识到比起虚无缥缈的比特币,还是蔬菜产业对保障本国的粮食安全更有价值。

ChatGPT 一天“吃”50万度电,AI的尽头是能源?(组图) - 8《我,机器人》剧照

三联生活周刊:如果我们相信世界能源署的数据是准确的,那么无论是2022年的460TWh还是2026年的1000TWh,都算不上是多么可怕的数字。人们真正担心的是人工智能产业潜在的指数级增长潜力。如果这个行业真的像某些行业大佬所说的那样出现指数级增长,那才是真正的危机时刻。你觉得这样的可能性有多大?

德弗里斯:预测未来是天底下最难的事情,所以我也说不好。但我认为现在的高科技公司大都非常擅长造势,大佬们也特别喜欢说大话,比如山姆·奥特曼就说人类未来需要开发出可控核聚变发电的能力才能应对人工智能巨大的能源需求。我个人相信人工智能产业在短期内的高速增长应该是大概率会发生的事情,但从中长期来看,答案并不是那么地显而易见,因为我认为人类并不需要那么强的人工智能,也不是所有人都想使用ChatGPT。比如现在的ChatGPT经常会犯错,所以很多人发现自己还得对ChatGPT给出的答案再核实一遍,于是使用它的热情便降低了。

总之,我认为人工智能产业真不一定会向着科技公司大佬们预测的那个方向发展,未来并不确定。

(本文刊载于《三联生活周刊》2024年18期)

今日评论 网友评论仅供其表达个人看法,并不表明网站立场。
最新评论(5)
wenyi_chow
wenyi_chow 12天前 回复
最终还是环境承载力
JessicaJJ2012
JessicaJJ2012 12天前 回复
“比如现在的ChatGPT经常会犯错,所以很多人发现自己还得对ChatGPT给出的答案再核实一遍” 说得完全正确,不过使用热情倒还是很高的。
pandagoes喵
pandagoes喵 12天前 回复
用ai发电
死肥gap要飞
死肥gap要飞 12天前 回复
宇宙的尽头是能源
小叶_加油year2
小叶_加油year2 12天前 回复
能源和粮食,终极问题


Copyright Media Today Group Pty Ltd.隐私条款联系我们商务合作加入我们

分享新闻电话: (02) 8999 8797

联系邮箱: [email protected] 商业合作: [email protected]网站地图

法律顾问:AHL法律 – 澳洲最大华人律师行新闻爆料:[email protected]

友情链接: 华人找房 到家 今日支付Umall今日优选