众所周知,生成式人工智能的发展需要越来越多的水和电,但《华盛顿邮报》和加州大学河滨分校的研究人员进行的一项新研究表明,OpenAI 的聊天机器人需要多少资源才能执行其最大功能基本功能。
在用水量方面,ChatGPT 编写一封 100 字的电子邮件所需的用水量取决于州以及用户与 OpenAI 最近的数据中心的距离。特定地区的水源越少,电力越便宜,数据中心就越有可能依赖电动空调装置。例如,在德克萨斯州,聊天机器人大约只消耗 235 毫升的水来生成一封 100 字的电子邮件。另一方面,在华盛顿起草的同一封电子邮件则每封需要 1,408 毫升(接近一升半)。
随着生成型人工智能技术的兴起,数据中心变得越来越大、越来越密集,以至于空气冷却系统难以跟上。这就是为什么许多人工智能数据中心已改用液体冷却方案,将大量的水泵入服务器堆栈,以排出热能,然后将收集到的热量散发到冷却塔中。
ChatGPT 的电力要求也不容小觑。据《华盛顿邮报》报道,使用 ChatGPT 编写 100 个字的电子邮件所消耗的电流足以让十多个 LED 灯泡运行一个小时。即使十分之一的美国人使用 ChatGPT 每周写一次电子邮件,持续一年,这个过程所消耗的电量也相当于华盛顿特区每个家庭在 20 天内所消耗的电量。华盛顿特区拥有大约 670,000 人。
这不是一个很快就能解决的问题,而且在好转之前可能会变得更糟。例如,Meta 需要 2200 万升水来训练其最新的Llama 3.1 模型。根据法庭记录,谷歌位于俄勒冈州达尔斯的数据中心消耗了该镇近四分之一的可用水量,而 xAI 的新孟菲斯超级集群已经需要 150 兆瓦的电力——足以为多达 30,000 户家庭供电— 来自当地公用事业公司孟菲斯照明、天然气和水务公司。