Скрытая цена прогресса: Как искусственный интеллект увеличивает нагрузку на энергосистемы мира
В последние годы ChatGPT и другие ИИ-чатботы переживают взрывной рост популярности. Согласно данным исследований, число пользователей платформы приближается к 200 млн, а ежедневно они отправляют более миллиарда запросов. Со стороны кажется, что нейросети генерируют ответы «из воздуха», но за этим стоит колоссальное энергопотребление.
В 2023 году дата-центры, обучающие и обслуживающие ИИ, потребляли 4,4% электроэнергии в США и около 1,5% глобального энергопотребления. По прогнозам, к 2030 году эти показатели увеличатся вдвое из-за растущего спроса на технологии искусственного интеллекта.
«Всего три года назад ChatGPT даже не существовал, а сегодня ИИ может стать причиной почти половины энергопотребления дата-центров в мире», — отмечает Алекс де Врис-Гао, специалист по устойчивому развитию цифровых технологий из Амстердамского университета и основатель платформы Digiconomist, изучающей скрытые последствия технологических трендов.
Почему ИИ так «прожорлив»?
Основной расход энергии приходится на два этапа работы нейросетей: обучение и инференс (генерация ответов). Обучение крупных языковых моделей (LLM) требует обработки огромных массивов данных для распознавания паттернов и прогнозирования. «Существует убеждение, что чем больше модель, тем точнее её предсказания, — объясняет де Врис-Гао. — Однако современные модели уже не помещаются в один сервер».
Масштаб проблемы:
- Обучение. Как показало исследование 2023 года, сервер Nvidia DGX A100 потребляет до 6,5 кВт. Для тренировки LLM задействуют десятки таких серверов с восемью GPU каждый, работающих неделями. Например, обучение GPT-4 потребовало 50 ГВт·ч энергии — этого хватило бы на три дня энергоснабжения Сан-Франциско.
- Инференс. Ежедневные запросы к ChatGPT превышают 2,5 млрд, и каждый требует мгновенной обработки. Ситуация усугубляется с интеграцией ИИ в поисковые системы, такие как Gemini от Google, который вскоре станет частью стандартного поиска.
Невидимая экологическая цена
Учёные, включая Мошарафа Чоудхури, компьютерного специалиста из Мичиганского университета, пытаются оценить реальные масштабы энергопотребления ИИ. Чоудхури ведёт реестр энергоэффективности open-source моделей. Однако крупные компании вроде OpenAI, Google и Meta редко раскрывают данные, что затрудняет прогнозирование и регулирование.
Пользователи могут влиять на ситуацию, требуя от разработчиков прозрачности. «Цифровые технологии всегда скрывают своё воздействие, — подчёркивает де Врис-Гао. — Задача регуляторов — создать инструменты для раскрытия этой информации, чтобы общество могло принимать осознанные решения».
Возможные решения:
- Оптимизация алгоритмов. Исследования направлены на создание энергоэффективных архитектур нейросетей. Например, методы «обучения с подкреплением» сокращают вычислительные ресурсы.
- Зелёная энергетика. Компании всё чаще размещают дата-центры в регионах с доступом к ВИЭ. Microsoft, например, тестирует подводные ЦОД, охлаждаемые океаном.
- Квантовые вычисления. В будущем квантовые процессоры могут снизить энергозатраты на обучение моделей в сотни раз.
Однако без глобальной кооперации и строгих стандартов «энергетический аппетит» ИИ может стать критическим фактором климатического кризиса. Как и в случае с пластиком или углеводородами, человечеству придётся выбирать между технологическим рывком и устойчивостью экосистем.