[ad_1]
ChatGPT 无法完全回答的一个问题是:您消耗了多少能量?
“作为一种 AI 语言模型,我没有实体存在或直接消耗能源,”它会说,或者:“与我的操作相关的能源消耗主要与用于托管和运行模型。”
谷歌的巴德更为大胆。 “我的碳足迹为零,”它声称。 当被问及在其创造和训练过程中消耗的能量时,它回答说:“不为人所知”。
AI 程序似乎没有实体。 但它们由世界各地数据中心的服务器网络提供动力,这需要大量的能源来供电,并需要大量的水来保持凉爽。
由于 AI 程序非常复杂,因此它们比其他形式的计算需要更多的能量。 但问题是——很难确定到底有多少。
随着他们竞相构建越来越复杂的人工智能模型,像创建了 ChatGPT 的 OpenAI 这样的公司,谷歌和微软不会透露训练和运行他们的人工智能模型需要多少电力和水,他们的数据中心使用什么能源,甚至他们的一些数据中心所在的位置。
例如,Facebook 的母公司 Meta 去年宣布,它正在构建它认为是世界上最快的超级计算机,称为 AI Research SuperCluster (RSC)。 但它不会透露超级计算机的位置或它是如何供电的。
现在,随着科技行业急于将生成人工智能融入几乎所有事物——从电子邮件和搜索到送餐应用程序和心理健康服务——行业专家和研究人员警告说,该技术不受限制的增长可能会付出巨大的环境代价。
“人工智能的指数级使用带来了对越来越多能源的需求,”人工智能公司 Hugging Face 的气候负责人 Sasha Luccioni 说。 “然而,我们看到人们使用生成人工智能模型的这种转变,只是因为他们觉得他们应该这样做,而没有考虑可持续性。”
Luccioni 是为数不多的研究人员之一,他们试图评估在创建特定 AI 模型时产生的排放量。
在一篇尚未经过同行评审的研究论文中,她和她的合著者计算了在超级计算机上训练 Hugging Face 自己的大型语言模型 Bloom 所消耗的能量; 用于制造超级计算机硬件和维护其基础设施的能源; 以及启动程序后用于运行该程序的电力。 他们发现它产生了大约 50 公吨的二氧化碳排放量,相当于伦敦和纽约之间大约 60 次航班的排放量。
Luccioni 和她的团队估计,Bloom 的能源足迹低于其他生成式 AI 程序,因为 Bloom 的超级计算机由核能提供动力,不会产生碳排放。 相比之下,有限的公开数据表明大约 500 公吨 CO2个 研究人员指出,这些数据只是在 ChatGPT 的 GPT3 模型训练中产生的——相当于普通汽油动力汽车行驶超过一百万英里。
“对于 ChatGPT 的最新模型 GPT4, [OpenAI] 没有说明它接受了多长时间的培训,在哪里接受培训,或者关于他们正在使用的数据的任何事情,”Luccioni 说。 “所以从本质上讲,这意味着不可能估算排放量。”
与此同时,更新的 AI 模型变得越来越大,也越来越耗能。 Luccioni 说,更大的模型需要使用越来越强大的图形处理单元 (GPU),并且需要更长的训练时间——消耗更多的资源和能量。
更不清楚的是在创建和使用各种人工智能模型时消耗的水量。 数据中心在蒸发冷却系统中使用水来防止设备过热。 由加州大学河滨分校的研究人员领导的一项未经同行评审的研究估计,在微软最先进的美国数据中心训练 GPT3 可能消耗了 700,000 升(184,920.45 加仑)淡水。
在缺乏准确的公共数据的情况下,研究人员不得不根据微软自行报告的平均值来假设“用水效率”,即数据中心使用的能源与用于冷却和运行的水的比率。
根据确切训练 GPT-3 的地点和时间,实际使用的升数可能会有很大差异——在灼热的亚利桑那州,需要大量的水来防止服务器过热,而在怀俄明州,一个中心可能使用更少的水。 特定数据中心的设计也可能极大地影响数字。 中心可以使用传统的空调,而不是使用耗水量大的蒸发冷却系统——它使用更少的水,但更多的电。
谷歌成为第一家在全球范围内公布其用水情况的科技巨头,但提供的平均数据掩盖了其数据中心对当地影响的重要细节。 在与俄勒冈州达勒斯市进行了旷日持久的官司之后,俄勒冈州达勒斯市公布的数据显示,谷歌数据中心使用了该镇四分之一的供水量。
加州大学河滨分校电气与计算机工程副教授 Shaolei Ren 表示,由于 AI 项目的用水效率可用于猜测其计算能力,因此公司希望对用水情况保密。 “他们想给我们尽可能少的信息,”他说。
一般来说,公司倾向于在电力便宜的地方建造数据中心。 随着谷歌和微软等大型科技公司努力实现净零排放目标,他们可能特别有动力在太阳能或风能丰富的地区(如亚利桑那州)建设,但缺水。
Meta 和 OpenAI 没有回应卫报的置评请求。 谷歌和微软拒绝提供正式的回应。
当领先的人工智能公司的高管呼吁监管以防止人工智能带来的“生存风险”时,这引发了人们对超级智能对社会构成威胁的猜测。 但研究人员警告说,更直接、相关的风险之一是环境。
Luccioni 说,如果公司对在创建和使用 AI 模型过程中使用的自然资源和释放的碳排放更加透明,它们可以帮助开启关于何时以及如何战略性地使用生成 AI 的讨论。 在癌症治疗中使用生成式 AI 技术可能值得付出环境成本,但在其他情况下使用它是一种浪费。
然而,生成式人工智能已经成为一种固定现象。 “有一种观点认为,如果你不使用它,你的公司就会过时,”Luccioni 说。
几个月前,OpenAI 提供付费访问权限以将 ChatGPT 整合到他们的应用程序中,包括在线杂货配送公司 Instacart 在内的公司正在使用该功能来定制杂货清单和成分推荐。 上个月,谷歌宣布将把生成式 AI 整合到 gmail 和搜索中——使用呈指数级增长的复杂度和能源密集型技术来完成基本相同的任务。 公司建议使用类似的工具进行银行欺诈检测,争议统计模型已经非常擅长检测。
Luccioni 说:“这令人沮丧,因为实际上人们多年来开发了如此多的低影响、高效的 AI 方法和方法,但人们希望将生成式 AI 用于所有事情。” “这就像用显微镜敲钉子一样——它可能会起作用,但这并不是这个工具的真正用途。”
[ad_2]
Source link