随着生成式 AI 的崛起,AI 模型所需的资源量成为众人关注的焦点,无论是对水资源还是电力的依赖,AI 模型用到的资源都在高速成长,并且在未来短期内可能只会更多。
根据《华盛顿邮报》与加州大学河滨分校的最新研究,OpenAI 的 ChatGPT 所需的资源,即便是进行最基本的功能,都相当惊人。
报告指出,ChatGPT 撰写一封 100 字的电子邮件,所耗费的水量与用户所处地理位置以及距离 OpenAI 数据中心的远近有关。举例来说,德州的数据中心为生成这样的电子邮件仅需 235ml 的水,但在华盛顿州,生成同样的电子邮件所需的水量高达 1,408ml,接近一公升半。
这主要是因为在一些水资源匮乏的地区,数据中心更倾向于依赖电力驱动的空调系统,而不是传统的水冷系统。
除此之外,生成式 AI 对电力的需求也很惊人。根据报导,让 ChatGPT 撰写一封 100 字的电子邮件,所消耗的电力足以让十多个 LED 灯泡持续亮一小时。如果有十分之一的美国人每周使用 ChatGPT 撰写一次电子邮件,并持续一年,这个过程所耗费的电力将等同于华盛顿特区所有家庭在 20 天内的用电量。
华盛顿特区约有 67 万居民,这意味着 AI 的发展正逐步逼近现实世界中的资源极限。
这个趋势在其他科技大厂中也同样明显,Meta 近期为训练其 Llama 3.1 模型,使用了多达 2,200 万公升的水,而 Google 位于俄勒冈州达勒斯的数据中心则被发现消耗了该镇四分之一的水资源。
更可怕的是,xAI 于孟菲斯新创建的超级集群,已经向当地公用事业部门要求 150 兆瓦的电力,这相当于 30,000 户家庭的用电量。
版权声明
本文为本站原创内容,转载需注明文章来源(https://www.eiefun.com),另:文中部分素材可能会引用自其他平台,如有侵权或其它,请联系 admin@eiefun.com,我们会第一时间配合删除