Google бросает вызов Nvidia: новые TPU для инференса уже в игре

Кремниевая автономия: Google масштабирует выпуск собственных ИИ-чипов

Google официально выходит на тропу войны с Nvidia в сегменте инференса (процесса выполнения запросов уже обученной моделью). На конференции Cloud Next в Лас-Вегасе компания презентовала новое поколение TPU (Tensor Processing Units), фокусируясь на скорости работы чат-ботов и ИИ-агентов. Это не просто обновление «железа», а стратегический сдвиг: рынок переходит от энергозатратного обучения моделей к их массовому практическому применению. Google становится единственным игроком, контролирующим весь стек — от софта до полупроводников.

Экспансия TPU: Anthropic и Meta уже в очереди за мощностями

Google делает ставку на специализацию, разделяя железо для обучения моделей и для инференса. Это логичный шаг: инференс требует мгновенной реакции, тогда как обучение — огромной пропускной способности памяти. Главный научный сотрудник Google Джефф Дин подтверждает, что такая диверсификация критична для поддержания масштаба современных ИИ-сервисов (по данным Bloomberg). Компания уже обладает 10-летним опытом разработки собственных процессоров, что позволяет ей избегать дефицита, с которым сталкиваются покупатели топовых H100 от Nvidia.

Спрос на решения от Google демонстрирует реальный масштаб игры:

  • Anthropic забронировала доступ к 1 млн TPU для работы своих моделей Claude.

  • Meta подписала многолетний контракт на миллиарды долларов для использования инфраструктуры Google Cloud.

  • Citadel Securities и G42 уже тестируют новые мощности для финансового моделирования и обработки данных (по данным компаний).

Для пользователя это означает, что ответы ИИ станут дешевле и быстрее. Для индустрии — это прецедент «вертикальной интеграции», где облачный провайдер перестает зависеть от внешних поставщиков чипов, замыкая прибыль внутри собственной экосистемы.

DNS ИИ-индустрии: Почему Google Cloud становится главным хабом

Исторически Nvidia доминировала благодаря CUDA (платформе для параллельных вычислений), которая стала стандартом для разработчиков. Но Google разрушает эту монополию, позволяя использовать сторонние фреймворки, такие как PyTorch, на своих TPU. Более того, компания начала тестировать размещение своих чипов непосредственно в дата-центрах клиентов, выходя за пределы собственного облака.

Аналитики ETFocus видят в этом четкий сигнал: мы наблюдаем «коммодитизацию» вычислительных мощностей. Если раньше Nvidia могла диктовать цены из-за дефицита, то теперь Google создает жизнеспособную альтернативу. Это напоминает переход традиционных банков от закупки серверов IBM к использованию гибких облачных решений: контроль над «железом» становится главным конкурентным преимуществом в TradFin (традиционных финансах) и криптосфере.

Эра ИИ-агентов и будущее рынка вычислений

Рынок ИИ окончательно смещается от фазы «мы строим большую модель» к фазе «мы запускаем миллион микросервисов». Именно здесь инференс становится ключевым полем битвы. Затраты на поддержку работы ИИ (inference costs) уже сейчас начинают превышать затраты на его разработку. Для криптопроектов, внедряющих ИИ для анализа сетей или автоматизации трейдинга, это означает снижение барьера входа.

Успех Google заставляет Nvidia реагировать: компания Дженсена Хуанга уже представила новые чипы, заточенные под быстрый инференс, но у Google есть фора в виде интегрированных сервисов Cloud Next. Это противостояние ускорит развитие AI-fintech решений, где скорость исполнения ордера или анализа рисков измеряется миллисекундами.

Google превращается из софтверного гиганта в полноценного полупроводникового тяжеловеса, создавая реальную угрозу доминированию Nvidia. Победителем в этой битве выйдет тот, кто обеспечит самую низкую стоимость одного токена (единицы текста/данных) при максимальной скорости выдачи.

А пока Google масштабирует железо для ИИ-агентов, Coinbase уже тестирует их на месте живых менеджеров — разбираем кейс в свежем материале "Coinbase заменяет менеджмент ИИ-агентами".