OpenAI начинает использовать чипы Google TPU, снижая зависимость от Nvidia

Компания OpenAI впервые применила тензорные процессоры Google для поддержки ChatGPT и связанных сервисов, снижая зависимость от решений Nvidia и Microsoft.

OpenAI начала использовать ИИ-ускорители TPU от Google для поддержки ChatGPT и связанных сервисов, что стало первым шагом к снижению зависимости от чипов Nvidia и инфраструктуры Microsoft. По данным The Information, компания арендует тензорные процессоры у Google Cloud, чтобы сократить расходы на инференс — процесс генерации ответов после обучения модели. Это решение может повысить статус TPU как экономичной альтернативы GPU Nvidia, доминирующим на рынке ИИ-ускорителей.

Ранее OpenAI полагалась на оборудование Nvidia через партнерство с Microsoft и Oracle, но теперь добавила Google в список поставщиков. Однако, как сообщают источники, OpenAI получает не самые мощные версии TPU — Google оставляет передовые чипы для внутренних задач, включая разработку собственных языковых моделей Gemini. Тем не менее, даже доступ к более ранним версиям TPU позволяет OpenAI диверсифицировать инфраструктуру на фоне растущего спроса на ИИ-чипы. В апреле Google анонсировала седьмое поколение тензорных процессоров, предлагая их как конкурентное решение чипам NVIDIA. Сложности с поставками и завышенная стоимость графических ускорителей NVIDIA способствуют росту спроса на альтернативные решения.

Пока неясно, будет ли OpenAI использовать TPU Google для обучения моделей или только для инференса. Однако в условиях ужесточающейся конкуренции и дефицита ресурсов гибридная инфраструктура дает компании больше гибкости для масштабирования вычислений.

Что будем искать? Например,ChatGPT

Мы в социальных сетях