Amazon планирует развернуть AI‑модели на огромных чипах Cerebras.

Amazon планирует развернуть AI‑модели на огромных чипах Cerebras.

26 hardware

Amazon и Cerebras объединяют силы для ускорения больших языковых моделей

Amazon Web Services (AWS) объявила, что в середине 2026 года начнёт использовать чипы стартапа Cerebras Systems Inc. наряду со своими собственными процессорами Trainium. По‑собственной информации компании это позволит создать «оптимальные условия» для запуска и обслуживания больших языковых моделей (LLM). Детали финансовой стороны сделки пока не раскрываются.


Что именно будет происходить

* Чипы Trainium 3 от AWS будут обрабатывать пользовательские запросы – «понимать» их смысл.
* Затем чипы Cerebras Wafer‑Scale Engine (WSE) займутся генерацией ответа.

Таким образом, два специализированных ускорителя работают в паре и обеспечивают инференс‑вычисления для LLM.

> “Взаимодействие между разными компонентами обычно замедляет процесс,” – отмечает Nafea Bshara, вице‑президент AWS. – “Но мы стремимся получить преимущество, используя чипы, которые быстрее обрабатывают инференс.”

Преимущество особенно заметно там, где важна скорость реакции: например, при пошаговом написании кода или генерации текста в режиме реального времени.


Почему это важно

* Amazon – один из крупнейших облачных провайдеров и активный пользователь GPU‑производителей Nvidia. Сейчас компания разрабатывает собственные ИИ‑чипы, чтобы повысить эффективность центров обработки данных и предложить клиентам уникальные сервисы.
* Для Cerebras сотрудничество с AWS – первый крупный договор от гиганта дата‑центров, что повышает узнаваемость бренда перед потенциальным рынком. Это также важно в преддверии их планируемого IPO.


Итоги

AWS и Cerebras совместно создают новую инфраструктуру для больших языковых моделей: чипы Trainium 3 обрабатывают запросы, а WSE генерируют ответы. Несмотря на то, что отдельный сервис только на Trainium может быть дешевле, комбинированное решение обещает значительное ускорение, где «время — это деньги». Это усиливает позиции Amazon как крупного клиента Nvidia и одновременно продвигает собственные ИИ‑чипы компании к более высокой эффективности.

Комментарии (0)

Оставьте отзыв — пожалуйста, будьте вежливы и по теме.

Пока нет комментариев. Оставьте комментарий — поделитесь своим мнением!

Чтобы оставить комментарий, войдите в аккаунт.

Войти, чтобы комментировать