藏在AI背后的“吃电狂魔”

科技 2024-04-09 09:50 阅读:25

AI应用的“吃电狂魔”问题日益凸显。从荷兰科学家亚历克斯·德弗里斯的研究中可以看出,像ChatGPT这样的对话机器人在响应问题时消耗的电量惊人。而随着人工智能行业的快速发展,到2027年,整个AI行业每年的耗电量将高达85~134太瓦时,相当于全球用电量的0.5%。

大模型的训练和推理过程需要大量电力支撑。与CPU相比,GPU在处理多任务时更为高效,但也消耗更多电力。GPT-3的训练耗电量高达1287兆瓦时,相当于开车从地球到月球往返一次。而在推理阶段,AI的耗电量更是超过训练阶段。

科技巨头们为了支撑AI大模型的发展,纷纷投入建设数据中心。谷歌、微软等公司计划将AI融入主营业务,但这也意味着更大的电力需求。然而,美国的电力供给并没有明显增长,电网基础设施老化问题也日益凸显。

面对AI带来的电力危机,监管机构开始推动立法要求企业披露能源使用情况。一些科技企业也开始投资新型能源公司,希望用清洁的可再生能源支撑AI的发展。通过技术优化性能,也能显著降低AI的能耗。

在能源革命的关键时期,对新能源的挖掘将成为推动AI行业发展的关键。AI的发展需要更多的电力支持,而如何解决电力供给不足的问题,将成为AI发展的关键因素。