Точность ИИ дорого обходится экологии: углеродный след растёт с каждым запросом

Чем точнее становятся модели искусственного интеллекта, тем больше углеродного следа они оставляют — некоторые запросы могут генерировать в 50 раз больше выбросов CO₂, чем другие. К такому выводу пришли учёные в новом исследовании, опубликованном 19 июня в журнале Frontiers in Communication.
Модели с расширенным логическим выводом — такие как Claude от Anthropic, o3 от OpenAI и R1 от DeepSeek — представляют собой специализированные большие языковые модели (LLM), которые тратят больше времени и вычислительных ресурсов, чтобы давать более точные ответы по сравнению с предыдущими версиями.
Однако, несмотря на впечатляющие результаты, эти модели сталкиваются с серьёзными ограничениями в решении сложных задач. Теперь же исследователи выявили ещё одну проблему — их огромный углеродный след.
«Экологическое воздействие LLM напрямую зависит от их подхода к логическому выводу: чем сложнее процесс рассуждения, тем выше энергопотребление и выбросы CO₂», — заявил Максимилиан Даумер, ведущий автор исследования из Мюнхенского университета прикладных наук.
«Мы обнаружили, что модели с расширенным логическим выводом могут генерировать в 50 раз больше CO₂, чем модели, дающие краткие ответы».
Как работают LLM и почему они так энергозатратны?
Чтобы ответить на запрос, языковые модели разбивают текст на токены — фрагменты слов, которые преобразуются в числовые последовательности и обрабатываются нейросетями. Эти сети обучаются на данных, вычисляя вероятности появления определённых языковых паттернов, и на их основе формируют ответ.
Модели с логическим выводом (reasoning models) повышают точность за счёт метода «цепочки рассуждений» (chain-of-thought) — разбивают сложную задачу на промежуточные шаги, имитируя человеческое мышление. Однако такой подход требует значительно больше энергии, чем обычные LLM, что создаёт экономические сложности для компаний и пользователей.
Сколько CO₂ выделяет ИИ?
Учёные протестировали 14 языковых моделей (от 7 до 72 миллиардов параметров), задав им 1000 вопросов на разные темы. Вычисления проводились на графическом процессоре NVIDIA A100 с использованием фреймворка Perun, а энергопотребление пересчитывалось в выбросы CO₂ (из расчёта 480 грамм CO₂ на 1 кВт·ч).
Результаты:
-
Модели с логическим выводом генерировали в среднем 543,5 токенов на вопрос, тогда как обычные LLM — всего 37,7 токенов.
-
Чем больше вычислений, тем выше выбросы: самая точная модель (Cogito, 72 млрд параметров) давала 84,9% правильных ответов, но выделяла в 3 раза больше CO₂, чем аналогичные модели с кратким выводом.
-
Вопросы, требующие долгих рассуждений (например, по алгебре или философии), увеличивали выбросы в 6 раз по сравнению с простыми запросами.
«Сейчас мы видим явный компромисс между точностью и экологичностью в технологиях LLM», — отметил Даумер.
«Ни одна из моделей с выбросами ниже 500 грамм CO₂ не смогла достичь точности выше 80% на 1000 вопросов».
Разница между моделями: от Нью-Йорка до Лондона
Углеродный след зависит и от выбора модели:
-
DeepSeek R1 (70 млрд параметров) при ответе на 60 000 вопросов выделяет столько же CO₂, сколько авиаперелёт из Нью-Йорка в Лондон и обратно.
-
Alibaba Qwen 2.5 (72 млрд параметров) справляется с тем же количеством запросов с аналогичной точностью, но с выбросами в 3 раза меньше.
Исследователи подчёркивают, что данные могут варьироваться в зависимости от оборудования и источников энергии, но призывают пользователей ИИ задуматься, прежде чем запускать ресурсоёмкие запросы.
«Если бы люди знали, сколько CO₂ стоит их запрос — например, превращение себя в фигурку в стиле экшн-героя — они бы задумались, действительно ли им это нужно», — заключил Даумер.
Вывод: развитие ИИ требует не только улучшения точности, но и экологически устойчивых решений, иначе технологический прогресс может обернуться климатической проблемой.
Поделитесь в вашей соцсети👇