Генеративный искусственный интеллект будет занимать все большую долю в мировом энергопотреблении из-за растущих требований к аппаратному обеспечению, сообщает портал EnterpriseAI.

«Через пять лет на ИИ-чипы будет приходиться 1,5% потребляемой в мире электроэнергии», — заявила недавно фирма TechInsights, занимающаяся исследованиями в области полупроводников, взяв за основу данные о мировом потреблении электроэнергии в объеме 153 000 ТВт•ч в период с 2025 по 2029 гг., полученные от Управления энергетической информации США.

По оценкам исследовательской компании, за тот же период времени потребление ИИ-ускорителей составит 2318 ТВт•ч электроэнергии, или 1,5% от мирового потребления электроэнергии. При подсчете учитывалось, что каждый графический процессор (GPU) потребляет 700 Вт, что соответствует энергопотреблению флагманского GPU Hopper от Nvidia. Новые GPU Nvidia под названием Blackwell быстрее, но потребляют 1200 Вт энергии.

В оценках TechInsights учитывается только мощность, потребляемая чипами, и не учитывается потребление энергии системами хранения, памятью, сетями и другими компонентами, используемыми для нагрузок генеративного ИИ.

«Столь высокое потребление энергии вполне возможно, учитывая огромный спрос на графические процессоры и необходимость использовать эти дорогостоящие ресурсы для обеспечения отдачи», — пишет в своем отчете аналитик TechInsights Оуэн Роджерс.

ИИ-гонка

По данным исследования McKinsey, внедрить генеративный ИИ намерены 65% респондентов.

Чтобы удовлетворить спрос, облачные провайдеры и гиперскейлеры инвестируют миллиарды долларов в наращивание мощностей GPU. Microsoft полагается на графические процессоры Nvidia для работы своей ИИ-инфраструктуры, а Meta (признана экстремистской организацией и запрещена в РФ) будет располагать вычислительной средой, эквивалентной по мощности «почти 600 000 GPU H100».

По данным TechInsights, в 2023 г. Nvidia поставила около 3,76 млн. GPU, по сравнению с 2,6 млн. в 2022-м.

В прошлом году Gartner представила более агрессивный прогноз по энергопотреблению, заявив, что ИИ «может потреблять до 3,5% электроэнергии в мире». Методология компании не вполне ясна, но она может включать в себя сетевые технологии, системы хранения данных и память.

ИИ-гонка характеризуется тем, что компании стремятся обеспечить самую быструю инфраструктуру и лучшие результаты. Желание внедрить ИИ в бизнес нарушило давно устоявшиеся корпоративные планы устойчивого развития.

Microsoft, Google и Amazon тратят миллиарды на строительство мегацентров обработки данных с GPU и ИИ-чипами для обучения и обслуживания все более крупных моделей, что увеличивает энергопотребление.

Проблемы со стоимостью энергии

Сервер можно приобрести за 20 тыс. долл., но компаниям необходимо учитывать растущую стоимость электроэнергии и проблемы, с которыми сталкиваются энергосети, говорится в отчете Роджерса.

Дата-центры также должны быть спроектированы с учетом потребностей ИИ в электроэнергии. Эта потребность может быть лимитирована мощностью энергосистемы и наличием резервных источников питания.

Поставщики энергии также должны подготовиться к эре ИИ и создать инфраструктуру электроснабжения, которая включает электростанции, солнечные фермы и линии электропередач.

«Если спрос не может быть удовлетворен, поставщики энергии будут использовать рыночные подходы к управлению мощностями — а именно повышать цены, чтобы снизить потребление, — а не отказывать в мощностях. И опять же, это может иметь финансовые последствия для пользователей технологии ИИ», — отмечает Роджерс.

Целью правительства США является выработка 100% чистой энергии к 2035 г., что позволит снизить нагрузку на энергосистему. Это также откроет двери для большего количества дата-центров для ИИ.

Продуктивное использование энергии

Тенденции в области энергопотребления ИИ отражают ранние тенденции майнинга криптовалют, нагружающего электросети. Однако отраслевые наблюдатели сходятся во мнении, что ИИ — это более продуктивное использование энергии (на майнинг криптовалют приходится около 2,3% потребляемой в США электроэнергии.).

Nvidia также ориентируется на продуктивное использование энергии. Чтобы снизить энергопотребление, в графических процессорах Nvidia используются собственные технологии. Компания переходит на жидкостное охлаждение с воздушного на Hopper. «Мы видим возможность помочь получить максимальную производительность в стационарном мегаваттном ЦОДе и по оптимальной цене», — говорит Ян Бак, вице-президент и генеральный менеджер подразделения Nvidia по гипермасштабируемым и высокопроизводительным вычислениям (HPC).

Поставщики HPC, ИИ и устойчивое развитие

Участники недавней конференции по суперкомпьютерам «ISC 24» подшучивали над Nvidia, утверждая, что ее 1000-ваттные GPU «экологичны».

Исследовательские лаборатории также заявили, что GPU и прямое жидкостное охлаждение обеспечивают лучшее масштабирование производительности, чем CPU в прошлом.

Ливерморская национальная лаборатория им. Лоуренса, которая строит грядущий суперкомпьютер на 2 эксафлопа под названием El Capitan, увеличила емкость системы охлаждения до 28 000 тонн с дополнительными 18 000 тонн и повысила энергоснабжение до 85 МВт для текущих и будущих систем.

«El Capitan будет потреблять меньше 40 МВт, около 30 МВт, но это очень много электроэнергии», — отмечает Бронис де Супински, директор по технологиям LLNL. Он признает, что этот суперкомпьютер нельзя назвать экологически чистым, но основное внимание следует уделять результатам, достигнутым в плане соотношения производительности и потребляемой мощности. Например, энергия, которую потребляет суперкомпьютер, может быть вполне оправдана, если он решает климатические проблемы.

«Суперкомпьютер мощностью 30 МВт? Я не скажу вам, что это экологичный ресурс, но он может многое сделать для решения социальных проблем, которые перед нами стоят», — говорит де Супински.

Лаборатории также переходят на возобновляемые источники энергии и жидкостное охлаждение. Например, жидкостное охлаждение «позволяет сэкономить около 50% энергии, затрачиваемой на охлаждение», — отмечает Дитер Кранцльмюллер, председатель LRZ.

В экологичных вычислительных средах также рассматриваются вопросы компенсации выбросов углерода, улавливания и повторного использования отработанного тепла и материалов.

Прошлое HPC определяет будущее ИИ

Достижения в области повышения энергоэффективности суперкомпьютеров теперь используются для более эффективного использования каждого ватта, потребляемого ИИ.

Генеральный директор HPE Антонио Нери говорит, что компания переносит технологии энергоэффективности, использованные в Frontier и El Capitan, на системы ИИ с графическими процессорами Nvidia. «HPE обладает одним из крупнейших на планете производств систем водяного охлаждения. Почему? Потому что мы должны делать это для суперкомпьютеров», — отмечает он.

По словам генерального директора Nvidia Дженсена Хуанга, «применение жидкостного охлаждения приведет к повышению производительности, снижению затрат на инфраструктуру и эксплуатационных расходов».

Распределение рабочих нагрузок ИИ

Производители потребительских устройств продвигают ПК и мобильные устройства с нейронными ИИ-чипами на устройстве. Нейронные чипы могут запускать модели ИИ локально, снижая нагрузку на GPU в облаке.

Apple представила полное видение своей стратегии ИИ на устройствах и в облаке: если iPhone или Mac определяет, что ИИ-задача не может быть выполнена на устройстве, он перенаправляет запрос на облачный сервер в дата-центре компании. Пользователи Apple также могут выбирать, где запускать ИИ — на устройстве или в облаке.

Microsoft поощряет использование ИИ-чипов в устройствах на базе Windows. AI Hub от Qualcomm позволяет пользователям запускать бенчмарки, чтобы увидеть, как модели ИИ будут работать на устройстве. Это дает пользователям возможность решить, где проводить вычисления — на устройстве или в облаке.

Тем не менее, пока нет приложений для ПК с ИИ, которые могли бы стать наглядным примером того, как ПК перекладывают рабочую нагрузку ИИ на GPU в облаке.