Разобраться • 29 апреля 2025
ИИ потребляет очень много электроэнергии. Рассказываем, сколько и почему
ИИ потребляет очень много электроэнергии. Рассказываем, сколько и почему
Текст: Григорий Щеглов
Фото: Unsplash
Недавно глава OpenAI Сэм Альтман заявил, что компания тратит электричества на «десятки миллионов долларов» только на обработку вежливых фраз пользователей в диалогах с ChatGPT. Это высказывание в очередной раз привлекло внимание к вопросу энергопотребления искусственного интеллекта.
Насколько ИИ влияет на глобальное потребление? С чем сравнимы энергозатраты ChatGPT? Стоит ли уже паниковать? Отвечаем на все популярные вопросы.
Недавно глава OpenAI Сэм Альтман заявил, что компания тратит электричества на «десятки миллионов долларов» только на обработку вежливых фраз пользователей в диалогах с ChatGPT. Это высказывание в очередной раз привлекло внимание к вопросу энергопотребления искусственного интеллекта.
Насколько ИИ влияет на глобальное потребление? С чем сравнимы энергозатраты ChatGPT? Стоит ли уже паниковать? Отвечаем на все популярные вопросы.
Потребление электричества искусственным интеллектом делится на два основных блока: обучение модели и ее использование.
Обучение модели — это то, что происходит в лабораториях IT-компаний, когда нейросеть поглощает терабайты текстов, изображений и кода, чтобы научиться генерировать собственный контент. Эта фаза особенно энергозатратна.
По оценкам исследователей, обучение модели GPT-4 потребовало около 62,3 тыс. мегаватт-часов электроэнергии. Для сравнения:
При этом, с каждой новой версией языковые модели растут в размере. По своим возможностям GPT-4 в десятки раз опережает прошлые разработки компании. Впрочем, на рынке ИИ есть не только OpenAI.
Так, азиатские конкуренты американского стартапа в тренировке своих LLM ориентируются на эффективность. Известно, что разработка популярной модели Deepseek потребовала на 50–70% меньше ресурсов, чем GPT-4.
Использование модели — это то, что происходит, когда вы задаете вопрос ChatGPT или просите DALL-E нарисовать картинку. Хотя каждый отдельный запрос потребляет меньше энергии, чем обучение, но в масштабах миллионов пользователей цифры становятся внушительными.
Согласно исследованиям Hugging Face и Carnegie Mellon University, один запрос к текстовой модели потребляет в среднем около 0,00047 кВт·ч. Звучит несерьезно, пока не умножишь на число пользователей: если предположить, что ChatGPT обрабатывает хотя бы 300 млн запросов в неделю, это уже 141 мегаватт-час каждые семь дней.
С генерацией изображений ситуация еще более энергоемкая. Согласно тем же исследованиям, создание одного изображения с помощью ИИ может потреблять почти столько же энергии, сколько требуется для зарядки смартфона.
При этом точных данных о потреблении энергии последними моделями практически нет — на фоне нападок со стороны экоактивистов компании стали куда менее открытыми в этих вопросах. Ориентироваться приходится на данные независимых исследователей.
Можно выдохнуть. По данным Международного энергетического агентства (МЭА), вычисления и хранение данных в настоящее время составляют от 1 до 1,5% мирового спроса на электроэнергию. Однако с развитием искусственного интеллекта и криптовалют, использующих промышленные центры обработки данных, эта доля может серьезно вырасти.
Показательное сравнение: стандартный поисковый запрос Google потреблял около 0,3 ватт-часа, в то время как запрос к ChatGPT использует 2,9 ватт-часа — почти в 10 раз больше энергии. При ежедневных миллиардах поисковых запросов это может привести к дополнительному потреблению около 10 ТВт*ч электроэнергии в год.
В 2024 году объем строящихся дата-центров в США увеличился на 70% по сравнению с 2023 годом. Технологические компании, активно развивающие ИИ, столкнулись с резким ростом выбросов парниковых газов и испытывают трудности с достижением собственных экологических целей.
Некоторые пытаются снизить экологический след своих ИИ-операций. Например, Amazon стал крупнейшим корпоративным покупателем возобновляемой энергии в мире. Microsoft даже возрождает старые атомные электростанции, одновременно инвестируя в технологии ядерной энергетики нового поколения.
Однако, как отмечает бывший генеральный директор Google Эрик Шмидт, компаниям нужна «энергия во всех формах: возобновляемая, невозобновляемая, какая угодно. Она должна быть доступна и доступна быстро». Это косвенное признание того, что спрос на энергию для ИИ растет быстрее, чем развитие возобновляемых источников.
Энергетический голод ИИ имеет прямые последствия для бизнеса и конечных пользователей.
Во-первых, рост энергопотребления неизбежно влияет на стоимость разработки и эксплуатации ИИ-систем. По мере того как модели становятся больше и сложнее, затраты на их обучение и запуск увеличиваются. По некоторым оценкам, обучение современной крупной языковой модели может стоить миллионы долларов только в виде счетов за электроэнергию.
Для бизнеса это означает, что внедрение ИИ-решений требует тщательного анализа затрат и выгод. Маленьким компаниям и стартапам может быть сложнее конкурировать с гигантами, у которых есть ресурсы для создания собственной инфраструктуры.
Во-вторых, если тенденция роста энергопотребления продолжится, это может привести к удорожанию ИИ-сервисов для конечных пользователей. Уже сейчас некоторые компании вводят ограничения на использование своих ИИ-продуктов или переходят на платные модели.
В-третьих, энергоэффективность становится конкурентным преимуществом. Например, модель Deepseek от китайских разработчиков привлекает внимание именно своей эффективностью, потребляя значительно меньше вычислительных ресурсов при сопоставимом качестве работы.
Для разработчиков и стартапов это создает новую парадигму: важно не только то, насколько хорош ваш ИИ, но и насколько он энергоэффективен. Оптимизация алгоритмов и архитектуры моделей для снижения энергопотребления может стать ключевым направлением исследований в ближайшие годы.
Хорошая новость заключается в том, что разработчики «железа», на котором работает ИИ, также заинтересованы в развитии более эффективных решений.
«За последние 10 лет наша платформа стала в 100 тыс. раз более энергоэффективной. Только за последние два года — одно поколение в рамках нашего продукта — мы смогли повысили этот показатель в 25 раз», — говорит Джошуа Паркер, руководитель отдела корпоративной устойчивости Nvidia, одного из крупнейших производителей GPU в мире.
Кроме того, сам ИИ помогает в решении энергетических проблем. Искусственный интеллект уже используется для оптимизации распределения электроэнергии, интеграции возобновляемых источников, повышения надежности и снижения отходов.
Как отмечает Паркер: «Легко написать заголовок, в котором говорится, что ИИ сломает электросеть и приведет к большему количеству выбросов. Но лично я очень оптимистичен — думаю, это обоснованный оптимизм. ИИ со временем станет лучшим инструментом для устойчивого развития, который когда-либо видел мир».
Пока экологи бьют тревогу, а стартапы считают затраты, ясно одно: ИИ уже стал частью глобальной картины потребления энергии. От того, насколько ответственно компании подойдут к оптимизации своих моделей и инфраструктуры, будет зависеть не только цена подписки на ChatGPT, но и состояние планеты через 10–15 лет.