По словам генерального директора Google Cloud Томаса Куриана, огромные потребности в электроэнергии для ИИ-вычислений на раннем этапе были отмечены как узкое место, что побудило Google Cloud Alphabet спланировать, как получить энергию и как ее использовать.
Выступая на мероприятии Fortune Brainstorm AI в Сан-Франциско в понедельник, он отметил, что компания, ключевой фактор в сфере инфраструктуры искусственного интеллекта, работает над искусственным интеллектом задолго до появления крупных языковых моделей и смотрит на долгосрочную перспективу.
«Мы также знали, что самой проблемной вещью, которая может случиться, будет электроснабжение, потому что центры электропитания и обработки данных станут узким местом наряду с чипами», — сказал Куриан корреспонденту Fortune Эндрю Нуска. «Вот почему мы разработали наши машины так, чтобы они были сверхэффективными».
По оценкам Международного энергетического агентства, некоторые центры обработки данных, ориентированные на искусственный интеллект, потребляют столько же электроэнергии, сколько 100 000 домов, а некоторые из крупнейших строящихся объектов могут даже потреблять в 20 раз больше электроэнергии.
В то же время, по данным консалтинговой компании по недвижимости Knight Frank, мощность центров обработки данных по всему миру увеличится на 46% в течение следующих двух лет, что эквивалентно скачку почти на 21 000 мегаватт.
На мероприятии Brainstorm Куриан изложил трехсторонний подход Google Cloud к обеспечению достаточной мощности для удовлетворения всего этого спроса.
Во-первых, компания стремится максимально диверсифицировать виды энергии, лежащие в основе вычислений ИИ. Хотя многие люди говорят, что можно использовать любую форму энергии, на самом деле это неправда, сказал он.
«Если вы используете кластер для обучения, открываете его и начинаете выполнять задание по обучению, всплеск, который вы получаете от этих вычислений, потребляет так много энергии, что вы не можете справиться с ним за счет некоторых форм производства энергии», — объяснил Куриан.
Вторая часть стратегии Google Cloud — быть максимально эффективной, включая повторное использование энергии в центрах обработки данных, добавил он.
Фактически, компания использует искусственный интеллект в своих системах управления для мониторинга термодинамических обменов, необходимых для использования энергии, которая уже доставлена в центры обработки данных.
И в-третьих, Google Cloud работает над «некоторыми фундаментальными новыми технологиями для создания энергии новыми способами», сказал Куриан, не вдаваясь в подробности.
Ранее в понедельник коммунальные компании NextEra Energy и Google Cloud заявили, что расширяют свое партнерство и будут строить новые кампусы центров обработки данных в США, которые также будут включать в себя новые электростанции.
Технологические лидеры предупреждают, что электропитание имеет решающее значение для развития искусственного интеллекта, наряду с инновациями в чипах и усовершенствованными языковыми моделями.
Возможность создания центров обработки данных также является еще одним потенциальным узким местом. Генеральный директор Nvidia Дженсен Хуанг недавно отметил преимущество Китая на этом фронте по сравнению с Соединенными Штатами.
«Если вы хотите построить дата-центр здесь, в США, то от начала строительства до запуска суперкомпьютера искусственного интеллекта, вероятно, пройдет около трех лет», — сказал он в Центре стратегических и международных исследований в конце ноября. «Они могут построить больницу за выходные».

