进行推理的人工智能模型排放的二氧化碳是普通模型的50倍——且常常毫无意义

每当用户向诸如ChatGPT之类的大型语言模型(LLM)输入查询时,都需要消耗能量并产生二氧化碳排放。不过排放量会根据模型类型、话题领域和用户行为而有所不同。研究人员近日对比了14个模型后发现:复杂答案产生的排放量高于简单答案,且提供更准确答案的模型产生的排放量更高。但研究人员指出,用户在一定程度上可以通过调整个人使用方式,控制人工智能产生的二氧化碳排放量。

此类转换以及其他计算过程都会产生二氧化碳排放。然而许多使用者并未意识到这些技术相关的巨大碳足迹。德国研究人员现已通过标准化问题集,对不同已训练大型语言模型的二氧化碳排放量进行了测量与比较。

慕尼黑应用科技大学研究员、本研究第一作者Maximilian Dauner在《传播学前沿》中指出:"已训练语言模型问答对环境的影响主要取决于其推理方式,显式推理过程会显著推高能耗与碳排放。我们发现具备推理功能的模型相较于简洁应答模型,其二氧化碳排放量最多可增加50倍。"

'思考'型人工智能导致最高排放

研究团队评估了14个参数量从70亿到720亿不等的大型语言模型,涵盖多学科领域的1000个基准问题。参数量决定了模型学习与处理信息的方式。

推理模型平均每问题产生543.5个"思考令牌",而简洁模型仅需37.7个。思考令牌指推理模型生成答案前额外产生的处理单元。更高的令牌足迹必然导致更多碳排放,但冗长细节并不总能提升答案准确性。

具备720亿参数的Cogito推理模型以84.9%准确率成为最精准模型,但其碳排放量是同等规模简洁应答模型的三倍。Dauner表示:"当前大型语言模型存在明显的准确性与可持续性权衡,所有碳排放量低于500克二氧化碳当量的模型,在千题测试中正确率均未超过80%。"

 

问题领域也导致碳排放差异显著。需要复杂推理的学科(如抽象代数或哲学)产生的排放量,比直叙型学科(如高中历史)高出六倍。

实践审慎使用原则

研究者建议用户通过优化使用策略降低环境影响。Dauner指出:"通过要求AI生成简洁应答,或仅在必要时使用高算力模型,可显著减少排放。"

模型选择对碳足迹影响显著:720亿参数的DeepSeek R1回答60万问题产生的碳排放量相当于伦敦至纽约往返航班,而同等排放下,72B参数的Qwen 2.5模型可处理190万问题且保持相似准确率。

研究人员指出,硬件选择、区域电网排放因子及模型差异可能影响研究结果的普适性。Dauner总结道:"若用户能明确知晓AI输出(如生成虚拟形象)的碳成本,或将更审慎地选择使用场景与方式。"