Искусственный интеллект проникает во все большее количество сфер человеческой деятельности, от транспорта до медицины. Однако у этого процесса есть и темная сторона, отмечает Popular Mechanics. По расчетам исследовательницы Эммы Штрубель из Массачусетского университета в Амхерсте, обучение алгоритмов требует слишком много энергии — а значит, производит много парниковых газов. В разы больше, чем использование автомобиля.
Команда под руководством Штрубель изучила энергопотребление четырех разных алгоритмов, разработанных для генерации текста, — Transformer, ELMo, BERT и GPT-2. Исследователи вычислили, сколько энергии каждый алгоритм расходует за день, а затем умножили на продолжительность обучения алгоритма и сопоставили со средним количеством CO2, производимым при генерации электричества в США.
В результате выяснилось, что обучение одной нейронной сети приводит к выбросу 284 тонн углекислого газа. Это в пять раз больше, чем производит средний автомобиль на протяжении всего жизненного цикла.
Исследователям выявили процесс, на обеспечение которого уходила основная доля энергии. Им оказался так называемый поиск нейронной архитектуры — по сути, метод проб и ошибок. Чтобы с его помощью натренировать языковой ИИ, может потребоваться до 270 000 часов.
Штрубель отмечает, что неэкологичность искусственного интеллекта вызывает серьезное беспокойство. Поскольку у человечества совсем немного времени на предотвращение климатической катастрофы, необходимо как можно быстрее ликвидировать этот крупный источник парниковых газов. Пока на энергоэффективность ИИ внимания не обращают, важнее — результаты.
Эксперты уверены, что крупные компании должны уделять намного больше внимания климатическим изменениям, ведь от этого напрямую зависит их будущая прибыль. Если не предпринять мер по борьбе с потеплением, бизнес потеряет триллионы долларов, причем в самое ближайшее время.