AI时代的能源挑战:数据中心上山下海,谁来背AI的能耗锅?

科技 2024-04-29 11:40 阅读:14

能源焦虑是一个永恒的话题,从蒸汽机到内燃机,从煤炭到石油,世界的发展总是围绕着能源打转。到了AI时代,这一点也未曾改变。OpenAI CEO Sam Altman提到,未来的人工智能需要能源方面的突破,因为AI消耗的电力将远远超过人们的预期。数据显示,ChatGPT每天要响应大约2亿个请求,消耗超过50万度电力。预计到2027年,整个人工智能行业每年将消耗85至134太瓦时的电力。

巨大的能源消耗主要产生在驱动AI服务器计算、存储消耗的能源以及为AI服务器降温消耗的能源两个方面。虽然AI芯片的能效在提高,但整体功耗持续上涨。因此,降低服务器冷却时消耗的能源成为降低AI运营成本、减少能源消耗的关键。

液冷技术逐步替代风冷,成为数据中心的主要冷却方式。谷歌、微软等科技巨头纷纷采用液冷技术,提高数据中心能源利用效率。液冷技术分为芯片级液冷、浸没式液冷、喷淋式液冷、冷板式液冷等,其中冷板式液冷市场份额最广。

除了液冷技术,数据中心还采取了创新方式来降低能耗。谷歌选择利用海水降温,微软将数据中心放入海里,海底数据中心和山洞数据中心也成为新的选择。这些创新方式带来了新的挑战和争议,但也展示了人类在能源问题上的智慧和勇气。

AI时代的能源挑战,数据中心上山下海,谁来背AI的能耗锅?让我们共同探讨,寻找更科学、更可持续的解决方案。