某些AI提示会导致比其他提示多50倍的二氧化碳排放
人工智能可能会产生重大的碳足迹。
人工智能可能会产生重大的碳足迹。Getty Images
无论是撰写电子邮件还是计划假期,约有四分之一的美国人表示他们每天会多次与人工智能互动,另有28%的人表示他们的使用频率约为每天一次。
但许多人可能没有意识到搜索行为对环境的影响。根据国际能源署的数据,例如使用ChatGPT进行的请求消耗的电力是Google搜索的10倍。此外,作为人工智能模型运行基础的数据中心,占美国2023年总用电量的4.4%,到2028年预计将达到全国用电量的6.7%至12%。随着技术发展,这一数字很可能继续增长:全球数据中心数量从2012年的50万个增加到2024年9月的800多万个。
一项发表于Frontiers的新研究旨在引起人们对这一问题的更多关注。研究人员分析了生成回答所需的”标记”(语言模型处理和生成文本的最小数据单位),发现某些提示会导致比其他提示多至50倍的二氧化碳排放。
阅读更多: 没有能源革命,AI革命无法实现
不同的AI模型使用的参数数量不同;参数越多通常表现越好。这项研究检查了14个大型语言模型(LLM),参数范围从70亿到720亿不等,向它们提出了相同的一千个基准问题,涵盖多个领域。参数是模型在训练过程中学习的内部变量,随后用于生成结果。
具备推理功能的模型能够执行更复杂的任务,平均每个问题会产生543.5个”思考”标记(这些是推理LLM在生成答案前产生的额外数据单位)。相比之下,更简洁的模型每个问题仅需37.7个标记。使用的标记越多,排放量越高——无论答案是否正确。
话题内容也会影响排放量。关于高中历史等简单主题的问题产生的排放量比需要长时间推理的抽象代数或哲学等主题少至六倍。
不仅是问题类型或答案准确性,模型本身也会导致排放差异。研究人员发现某些语言模型比其他模型产生更多排放。DeepSeek R1(700亿参数)回答60万个问题产生的二氧化碳排放量相当于从伦敦到纽约的往返航班,而Qwen 2.5(720亿参数)可以以相似的准确率回答超过三倍的问题——约190万个问题,且排放量相同。
研究人员希望用户能更关注人工智能使用的环境影响。Dauner表示:”如果用户知道他们生成的人工智能输出的精确二氧化碳成本,比如随意把自己变成动作玩偶,他们可能会在使用这些技术时更加谨慎和有意识。”