大模型为何成耗能大户

2024-04-29 11:55:24 no.XX Studio

▓来扑克APP▓GGPoker[—ggn178.com—]为亚洲最具备实力的一间国际扑克竞技赛事平台,提供一个正规安全有保障的扑克游戏环境,加入立即玩与GGPoker全球玩家一起同乐今年以来二连浩特铁路口岸中欧班列突破1000列

  

 

  

  中新网美国好莱坞环球影城一电车发生事故致15人受伤

  随着人工智能技术快速发展#%*#,人工智能(AI)大模型的运行消耗问题受到越来越多关注@*。大模型为何成了耗能大户?能耗问题会不会成为人工智能发展的“绊脚石”?如何解决能耗问题?

  耗电耗水量大

  人工智能大模型到底有多耗能?据斯坦福人工智能研究所发布的《2023年AI指数报告》@%@@,AI大语言模型GPT-3一次训练的耗电量为1287兆瓦时@*,大概相当于3000辆特斯拉电动汽车共同开跑、每辆车跑20万英里所耗电量的总和%*%##。报告同时提出*#%#*,AI大语言模型GPT-3一次训练*%#@*,相当于排放了552吨二氧化碳#%@。

  国外研究显示#%%,一次标准谷歌搜索耗电0.3瓦时#%,AI大语言模型ChatGPT响应一次用户请求耗电约2.96瓦时##%,在AI大模型驱动下的一次谷歌搜索耗电8.9瓦时%@。

  除了耗电@#@,另有研究显示@@*,AI大语言模型GPT-3在训练期间耗水近700吨**%@,每回答20个至50个问题就要消耗500毫升水*@%@。弗吉尼亚理工大学研究指出*@,Meta公司在2022年使用了超过260万立方米的水*##*,主要作用是为数据中心提供冷却**%。

  据了解%%,人工智能大模型GPT-4的主要参数是GPT-3的20倍@#@%,计算量是GPT-3的10倍**@,能耗也随之大幅增加%@#*。

  华泰证券研报预测%@#@,到2030年*#@@,中国与美国的数据中心总用电量将分别达到0.65万亿千瓦时至0.95万亿千瓦时、1.2万亿千瓦时至1.7万亿千瓦时*#,是2022年的3.5倍和6倍以上*@*。届时*%@%@,AI用电量将达到2022年全社会用电量的20%和31%@%@##。

  为何如此耗能

  为什么人工智能大模型如此耗能?AI技术迅速发展%%,对芯片的需求急剧增加@%#@,进而带动电力需求激增##。同时*@,对AI进行大量训练*@@#,也意味着需要更强的算力中心和与之匹配的散热能力@@%。在AI快速迭代的道路上#*#%@,电力和水资源的消耗也在快速增加*@%*。因为很多数据中心全年无休*@#*@,发热量巨大@@@*,大规模电耗和水耗主要来自于冷却需求#@。

  相关统计显示%%%,数据中心运行成本的六成是电费##@,而电费里的四成多来自冷却散热#@@%,相应也会带来巨量冷却水的消耗%@%。风冷数据中心六成多的耗电量都会用在风冷上#@*@,只有不到四成电力用在实际计算上%**。如今%#*,全球数据中心市场耗电量是10年前的近10倍%@。

  能耗问题会不会成为人工智能发展的“绊脚石”?英伟达首席执行官黄仁勋曾提到@@#,AI和算力耗能巨大%%,但由于计算机性能飞速增长%#,计算会更加高效%%*#*,相当于更节省能源#%%@#。当前*%,我国实施严格的能耗双控政策**@%#,无论是AI大模型本身还是其应用行业@%#%@,对单位GDP能耗来说均有明显降低作用@**%*。

  从整体能耗来看*@,AI大模型带来的效率提升也会抵消一部分能耗增长**#@。随着绿电广泛应用@@%,再加上我国逐步由能耗双控向碳排放双控政策转变*#*,可再生能源对未来AI大模型发展的支撑能力也会越来越强@##@。

  此外#**,相较于其他国家而言*%,中美等能源消费大国和数据大国*@,具备更好发展AI大模型的资源条件和基础@*。

  怎样应对挑战

  据预测#*@*,到2025年#@,AI相关业务在全球数据中心用电量中的占比将从2%增加至10%#@%%。到2030年*#@%*,智能计算年耗电量将达到5000亿千瓦时@@@,占全球发电总量的5%@#*@。因此@*%@,在大力发展AI大模型的同时%@@*@,必须提前做好相关规划布局%@%,以提供必要的电力和水资源等技术支撑*%#%#。

  有专家认为@#**,人工智能的未来发展与状态和储能紧密相连@%@#。因此#*,不应仅关注计算力#%@,而是需要更全面地考虑能源消耗问题*#。OpenAI创始人奥尔特曼认为*#,未来AI技术取决于能源突破%#*,更绿色的能源尤其是核聚变或更便宜的太阳能以及储能的可获得性%*@%%,是人工智能发展快慢的重要因素#%%*#。

  为降低电力和水资源消耗@*,很多企业在尝试采用各种方法为数据中心散热*@*#%。例如@#**#,微软曾尝试部署海下数据中心*%*@*,脸书(Facebook)数据中心选址北极圈附近#%#%%,阿里云千岛湖数据中心使用深层湖水制冷等**#,我国很多企业则把数据中心布局在水电资源丰富的西南地区#%*。

  目前**#*,可通过算法优化、开发和使用更高效的AI专用硬件、调整神经网络训练过程以优化计算资源等技术方式来降低AI大模型的能耗@*#@*,并更多采用自然冷却、液冷、三联供、余热回收等新兴节能技术@###,提高制冷效率以降低数据中心能耗@*。从技术未来发展方向上看%##@*,光电智能芯片也有助于解决AI大模型的电耗和水耗问题*#。

  AI大模型的发展##,不能仅符合高端化、智能化的要求*@%#,更要符合绿色化的发展要求***%。为此%#@,从国家和地方层面上看#%#@*,为缓解AI大模型发展所带来的电力和水资源冲击##%%*,有必要将数据中心行业纳入高耗能行业管理体系*@@##,并提前做好相关规划布局@%@*。同时#%%%,加强资源整合@#*#,充分发挥人工智能大模型和数据中心的效能@#@,通过使用效能下限设置等方式@*,确保其自身的电力和水资源使用效率%**%。还应严格落实国家能耗双控及碳排放双控政策**,并将其碳足迹与水足迹纳入行业考核范围%@,切实推动碳足迹与水足迹逐步降低%@,以应对日益增长的AI大模型电力和水资源需求%@#*。

  (作者系中国宏观经济研究院能源研究所研究员)

  作者:崔成

  来源:经济日报

【编辑:曹子健】

来扑克APP

 


相关推荐

最新更新

Copyrights © 2023 琴艺谱 粤ICP备18029198号-1|新闻资讯