在 AI 技术进步的道路上,水资源不幸成了牺牲品。
近日 Google 发布了《2023 年环境报告》,数据显示其 2022 年总共消耗了 56 亿加仑的水,其中约 52 亿加仑用于公司的数据中心,比往年增加了 20%。
可能很多人对这个用水量没有多大概念。先科普一下,一加仑水等于 3.7854 升,因此 56 亿加仑水约等于 212.079 亿升水,相当于大约 31850 个奥运标准游泳池的水量(注:一个奥运标准游泳池大约是是 250 万升)。
那么 Google 的数据中心的用水量为何如此大?答案并不难找。
数据中心本身就承载着传递、展示、计算、存储数据信息的功能。要避免这动辄集成上百万台服务器出故障,散热便成了需要注意的「麻烦事」。
其中冷却数据中心最常用的方法就是蒸发和放空。
蒸发比较好理解,就是冷却水蒸发汽化,间接带走服务器所产生的热量,这是水冷型数据中心耗水量的主要部分之一。除了通过蒸发失掉水分以外,数据中心会定期对冷却系统进行清洗,这也会消耗一定数量的水资源。
此外,与以往不同的是,近些年来,训练 AI 也成了数据中心耗水量的「元凶」之一。
作为 Google Bard 聊天机器人的全新底层模型,(LLM)PaLM 2 想要获得成效就得经过高强度的预训练,参数越多,性能也就越好。公开资料显示,PaLM 2 是在 3.6 万亿个 token 上训练的,作为对比,上代 PaLM 也仅接受了 7800 亿 token 的训练。
巧合的是,正如加州大学副教授 Shaolei Ren 所说:「用水量增加 20% 大致与谷歌计算能力的增长一致,而谷歌的计算能力主要是由人工智能推动的。」
的确,如此庞大的训练量也就意味着需要更强的算力中心。要让那成千上万张显卡稳定安全地提供算力,也同样得配备一套蒸发冷却装置来将空间保持在理想温度。
原理也比较相似,就是利用蒸发水来散热,但运行起来需要消耗大量的清水,并且在循环的过程里,1%-2% 的水作为细水雾被风吹走,在能量循环的定理下,日积月累,自然造就了巨大的水资源消耗。
卡罗拉多大学与德克萨斯大学的研究人员在一篇《让 AI 更节水》的预印论文中也发布了训练 AI 的用水估算结果。
结果发现,训练 GPT-3 所需的清水量相当于填满一个核反应堆的冷却塔所需的水量(一些大型核反应堆可能需要几千万到上亿加仑的水)。ChatGPT(在 GPT-3 推出之后)每与用户交流 25-50 个问题,就得「喝掉」一瓶 500 毫升的水来降降温。
而这些水资源往往都是可被用作「饮用水」的淡水。
Google 在最新报告中表示,考虑到当地水资源的压力,在过去一年消耗的 56 亿加仑水中,其中 82% 的水资源来自水资源压力较小的地区。
但显然,这些大模型背后的公司不可能总是作出最环保的选择。那剩下的 18%,Google 则模糊地表示「正在探索新的合作伙伴关系和机会。」
值得注意的是,倘若将视野放在全球,伴随着全球大模型「军备竞赛」的日渐火热化,数据中心水资源的消耗速度也超乎想象。
只不过,他们光顾着抬头看对手的训练进度,又怎么会低头注意脚下的水资源呢?