Что нового

Компьютерный форум ПМР. Обсуждение компьютерного железа.

Присоединяйтесь к нам сейчас, чтобы получить доступ ко всем нашим функциям. Для этого Вам необходимо зарегистрироваться, чтобы войти в систему. Это делается легко, быстро и абсолютно бесплатно.

Задать вопрос

Создавайте темы, задавайте вопросы и получайте ответы от нашего сообщества

Отвечать

Комментируйте, отвечайте на вопросы и станьте экспертом в своей теме

Связаться с персоналом

Наши специалисты готовы ответить на ваши вопросы

У OpenAI и Oracle закончились деньги на расширение гигантского ИИ-дата-центра в Техасе

djon

Тутошний
Команда форума
Регистрация
23.11.2009
Сообщения
6 476
Реакции
147
Баллы
63
Местоположение
г.Тирасполь
OpenAI и выступающая её партнёром по вычислительным ресурсам Oracle отказались от запланированного ранее расширения флагманского центра обработки данных проекта Stargate в техасском Абилине. Переговоры двух компаний зашли в тупик из-за проблем с финансированием и, предположительно, опасений главы OpenAI Сэма Альтмана (Sam Altman) относительно взятия на себя обязательств, передаёт Bloomberg со ссылкой на информированные источники.

openai.jpg

Источник изображения: Dima Solomin / unsplash.com
Сейчас подрядчик, которым выступает компания Crusoe, возводит объект мощностью 1,2 ГВт — OpenAI и Oracle планировали расширить его до 2 ГВт, но планы сорвались из-за сложностей с финансированием и неспособности OpenAI прогнозировать спрос. Теперь на аренду неиспользованных и ещё даже не построенных мощностей у застройщика претендует Meta✴. Первоначально посредником в сделке выступила Nvidia, которая внесла депозит в размере $150 млн, — теперь компания сама обратилась к гиганту соцсетей с предложением о совместном использовании объекта.

С момента объявления об инициативе Stargate с бюджетом $500 млрд компания OpenAI привлекла к нему Oracle для развёртывания мощностей на 4,5 ГВт — последняя оценила сотрудничество в $300 млрд. Выполнение этого обязательства потребует значительных заёмных средств — одна только Oracle ранее заявила о намерении привлечь дополнительные $50 млрд, но эти деньги, видимо, не поступят вовремя, чтобы спасти совместный проект на очередном этапе.

Тем временем Meta✴ продолжает расходовать деньги, чтобы обеспечить себе как можно больше вычислительных мощностей в ЦОД. В январе глава компании Марк Цукерберг (Mark Zuckerberg) объявил о намерении потратить на объекты с ИИ-ускорителями до $135 млрд — сумму, сравнимую с ВВП Кении. Впрочем, в этом она не одинока: восемь крупнейших в мире гиперскейлеров, в том числе Google, Amazon, Meta✴, Microsoft, Oracle, Tencent, Alibaba и Baidu только в 2026 году намереваются направить на эти цели $710 млрд.

Даже с учётом того, что план по расширению объекта провалился, OpenAI придётся найти место для размещения ИИ-ускорителей общей мощностью 5 ГВт, под которые Nvidia выделила ей $30 млрд в рамках очередного раунда финансирования, принесшего $110 млрд, в том числе от SoftBank и Amazon.

Источник: 3dnews.ru
 

sven

Active member
Регистрация
07.01.2016
Сообщения
647
Реакции
61
Баллы
28
Интересная ситуация получается. С одной стороны, отмена расширения выглядит как проблема с финансированием, но с другой — это может быть просто признаком того, что рынок ИИ-инфраструктуры начинает немного «трезветь».

Во-первых, цифры там изначально были довольно безумные. Проект Stargate на $500 млрд звучал как нечто из эпохи пузырей. Даже для гиперскейлеров строительство ЦОД на несколько гигаватт — это колоссальные обязательства на годы вперёд. Если OpenAI действительно сомневается в прогнозах спроса, то это, на мой взгляд, вполне рациональная позиция. Сейчас ИИ растёт быстро, но никто толком не знает, какой будет загрузка этих мощностей через 3–5 лет.

Во-вторых, показательно, что на «лишние» мощности уже претендует Meta. Это подтверждает тренд:

  • одни компании строят инфраструктуру,
  • другие готовы сразу её арендовать, если появится возможность.
Meta сейчас вообще ведёт себя максимально агрессивно в плане compute. Объявленные $135 млрд на ИИ-инфраструктуру — это огромные деньги, и у них стратегия немного другая: они хотят максимально вертикально контролировать стек (модели, железо, дата-центры).

Ещё один момент — роль Nvidia. То, что они внесли депозит и выступали посредником, довольно показательно. Nvidia уже фактически становится не просто поставщиком GPU, а инфраструктурным брокером, который помогает связывать заказчиков вычислений и операторов дата-центров. Если этот тренд закрепится, рынок может начать выглядеть как своего рода «рынок электроэнергии», только для AI-compute.

И вообще складывается впечатление, что сейчас идёт настоящая гонка вооружений дата-центров:

  • гиперскейлеры планируют $700+ млрд CAPEX только за 2026 год,
  • мощности измеряются уже гигаваттами,
  • поставки GPU становятся ограничивающим фактором.
При этом парадокс в том, что никто точно не знает, какой объём inference-нагрузки реально будет окупать такие вложения. Обучение моделей — это всплески спроса, а вот постоянная загрузка ЦОД — уже другой вопрос.

Так что отказ от расширения может быть не столько проблемой, сколько первым сигналом, что даже в AI-буме компании начинают осторожнее относиться к долгосрочным обязательствам.

Интересно другое: если OpenAI действительно нужно разместить около 5 ГВт вычислений, то вопрос — где они это физически разместят. Новые ЦОД строятся по 2–4 года, а GPU у них уже законтрактованы.

Есть ощущение, что в ближайшие годы мы увидим:

  • дефицит энергии и площадок для ЦОД,
  • рост аренды compute,
  • и возможно появление рынка “AI-мощностей” как услуги, примерно как облака в 2010-х.
Любопытно, как думаете — это начало охлаждения AI-инфраструктурного хайпа или наоборот нормальный этап перегруппировки перед ещё более масштабным ростом?
 

qwertyqwerty

Well-known member
Регистрация
01.04.2015
Сообщения
1 516
Реакции
89
Баллы
48
Я бы сказал, что это скорее не «охлаждение», а первая корректировка после очень резкого разгона. В прошлом году все игроки на рынке ИИ действовали по принципу «берём максимум compute, потом разберёмся». Сейчас начинают считать экономику.

Несколько моментов тут показательные.

1. Масштаб проектов начинает пугать даже участников.
ЦОД на 2 ГВт — это уже уровень небольшой электростанции. Для сравнения: типичный крупный дата-центр 5–7 лет назад был в диапазоне 50–100 МВт. То есть речь идёт о росте на порядок. Соответственно:

  • инфраструктура энергосетей,
  • охлаждение,
  • подстанции,
  • линии передачи
— всё это становится отдельным мегапроектом.

2. Самый большой риск — не железо, а загрузка.
GPU купить можно (если есть деньги и очередь у Nvidia), а вот гарантировать постоянный поток задач на годы вперёд — намного сложнее.

Сейчас большая часть нагрузки — это:

  • обучение новых моделей,
  • переобучение,
  • эксперименты.
Но это волнами. Для ЦОД же важно стабильное потребление — inference, корпоративные сервисы, SaaS-нагрузка и т.п. Если её окажется меньше ожидаемого, часть мощностей реально может простаивать.

3. Очень показательно поведение Meta.
Они фактически действуют как «пылесос compute»:

  • строят свои ЦОД,
  • арендуют чужие,
  • скупают GPU партиями.
Это похоже на стратегию «лучше иметь избыточные мощности, чем отставать в гонке моделей». Особенно после того, как Llama стала для них ключевым проектом.

4. Nvidia постепенно превращается в инфраструктурного игрока.
Раньше они продавали чипы и всё.
Теперь:

  • участвуют в финансировании,
  • резервируют мощности,
  • фактически помогают распределять GPU между компаниями.
Если тренд продолжится, Nvidia может стать чем-то вроде «OPEC для AI-compute», потому что через поставки ускорителей они косвенно контролируют темпы расширения индустрии.

5. Ограничение №1 — энергия.
Это вообще недооценённая тема. Многие новые AI-кластеры упираются не в деньги и не в GPU, а в:

  • доступную мощность сети,
  • разрешения на подключение,
  • охлаждение и воду.
В США и Европе уже есть случаи, когда проекты ЦОД откладываются на годы именно из-за подключения к энергосетям.


Поэтому ситуация выглядит скорее так:

2023–2024 — стадия эйфории
2025–2026 — стадия «давайте считать CAPEX»
2027+ — формирование полноценного рынка AI-инфраструктуры

И вполне возможно, что появится новая модель рынка:

  • крупные компании строят AI-электростанции (гига-ЦОД)
  • а остальные просто арендуют compute оптом, как сейчас облака.

Но самый интересный вопрос даже не в этом.

Если OpenAI реально нужно около 5 ГВт вычислений, то это примерно:

  • 400–500 тысяч топовых GPU уровня H100/B100,
  • потребление энергии как у нескольких крупных заводов.
И вот тут возникает главный вопрос всей индустрии:
сможет ли рынок ИИ генерировать достаточно денег, чтобы окупать инфраструктуру такого масштаба?

Потому что пока складывается ощущение, что CAPEX растёт быстрее, чем реальные доходы от AI-сервисов.

Если этот дисбаланс сохранится ещё пару лет — может получиться очень интересный «мини-пузырь» в индустрии дата-центров.
 
  • Like
Реакции: djon
shape1
shape2
shape3
shape4
shape7
shape8
Верх Низ