Ollama теперь поддерживает аппаратное ускорение на чипах Apple M5, если установлено 32 ГБ RAM

Ollama теперь поддерживает аппаратное ускорение на чипах Apple M5, если установлено 32 ГБ RAM

21 software

Ollama — приложение для локального запуска ИИ‑моделей теперь быстрее на Mac‑чипах M5

ЧтоКак это выглядит
Новая версияOllama 0.19
Поддерживаемые ОСWindows, macOS, Linux
Аппаратное ускорениеТолько для чипов Apple M5 (M5 Pro, M5 Max)
Требования к памятиМинимум 32 ГБ унифицированной RAM

Что изменилось

Ollama позволяет пользователям загружать и запускать модели искусственного интеллекта прямо на своём компьютере. В отличие от облачных сервисов вроде ChatGPT, здесь не требуется постоянное подключение к сети.

Начиная с версии 0.19 разработчики добавили поддержку Apple MLX – фреймворка машинного обучения, а также унифицированной памяти (Unified Memory Architecture). Это позволяет ускорить работу модели на новых чипах Apple M5, сокращая время до первого токена и повышая общую скорость генерации.


Как это работает

* Нейроускорители: Ollama обращается к специализированным нейросетевым блокам внутри чипов M5, что делает вывод токенов более быстрым.
* Модели: Быстрее работают как персональные ИИ‑агенты (например, OpenClaw), так и более крупные системы – OpenCode, Anthropic Claude Code, OpenAI Codex и др.


Ограничения

1. Ускорение доступно только на чипах Apple M5 (M5 Pro/Max).
2. На компьютере должна быть установлена не менее 32 ГБ унифицированной памяти; иначе ускорение не сработает.

Таким образом, если у вас Mac с чипом M5 и достаточным объёмом RAM, вы сможете заметно повысить производительность локального ИИ‑приложения Ollama.

Комментарии (0)

Оставьте отзыв — пожалуйста, будьте вежливы и по теме.

Пока нет комментариев. Оставьте комментарий — поделитесь своим мнением!

Чтобы оставить комментарий, войдите в аккаунт.

Войти, чтобы комментировать