В настоящее время суточное энергопотребление некоторых моделей ИИ измеряется мегаватт-часами. Ожидается, что в ближайшем будущем эти показатели даже достигнут уровня национального потребления в некоторых странах. Таковы результаты нового исследования, посвященного энергетическому следу этих новых технологий.
В технологической отрасли центры обработки данных всегда отличались высоким энергопотреблением. В связи с этим появились решения, направленные на оптимизацию их энергоэффективности, такие как использование естественного охлаждения или утилизация отработанного тепла серверов. Но как быть с искусственным интеллектом — технологией, которая в последние годы оставила свой след в мире?
Этот вопрос изучил Алекс де Врис — аспирант и основатель исследовательской компании, занимающейся изучением последствий цифровых тенденций. Его исследование, опубликованное в журнале Joule, выявило некоторые тревожные данные. Системы искусственного интеллекта, особенно большие языковые модели (LLM), потребляют колоссальное количество энергии. Если эта тенденция сохранится, то в ближайшем будущем их потребление может сравняться с потреблением целой страны.
До 564 МВт-ч электроэнергии в день для ChatGPT...
Подобно тому, как простой поиск в поисковой системе потребляет энергию, взаимодействие с генеративными ИИ также требует затрат энергии. Разница в том, что последние, по данным исследования, потребляют в 10 раз больше энергии. В случае GPT, языковой модели, используемой чат-ботом OpenAI, один запрос требует 2,9 Вт-ч энергии. Исходя из количества ежедневных запросов в начале года, по оценкам авторов исследования, ChatGPT может потреблять до 564 МВт-ч в день. Для сравнения, такое количество энергии соответствует среднему годовому потреблению 52 американских домохозяйств.
Помимо взаимодействия с пользователями, LLM особенно энергоемки на этапе обучения. На этом ответственном этапе модели выполняют множество вычислений, требующих огромного количества энергии. К этому можно также добавить энергию, необходимую для обработки огромного объема данных, задействованных в работе. Это лишь несколько примеров высокой энергозатратности ИИ. Для обучения ChatGPT-3 потребовалось бы более 1,2 ТВт-ч энергии. Другие LLM, такие, как Gopher и OPT (Open Pre-trained Transformer), потребовали бы 1 ТВт-ч и 324 МВт-ч соответственно.
Неужели скоро они будут потреблять столько же энергии, сколько целая страна?
Согласно результатам исследования, к 2027 году энергопотребление, связанное с ИИ, может быть эквивалентно энергопотреблению таких стран, как Нидерланды, Аргентина, Швеция и Ирландия. Прогнозы предполагают потребление от 85 до 134 ТВт-ч в год. Причина, по которой автор исследования заглядывает в 2027 год, заключается в том, что он ожидает решения текущих проблем с цепочками поставок. В настоящее время предложение серверов ИИ является узким местом, спрос на них значительно превышает предложение. В то же время Алекс де Врис прогнозирует рост внедрения ИИ. Действительно, технологии быстро развиваются, регулярно появляются все более мощные и эффективные версии, не говоря уже о том, что растет число компаний, желающих внедрить ИИ в свою деятельность.
ИИ уже находится в центре многочисленных споров, начиная от использования данных без согласия и заканчивая потенциальной заменой профессионалов машинами, и это лишь два примера. Возникает вопрос: добавится ли растущее энергопотребление к списку основных проблем, связанных с ИИ?
Источник: New-Science.ru