Ollama теперь поддерживает аппаратное ускорение на чипах Apple M5, если установлено 32 ГБ RAM
Ollama — приложение для локального запуска ИИ‑моделей теперь быстрее на Mac‑чипах M5
| Что | Как это выглядит |
|---|---|
| Новая версия | Ollama 0.19 |
| Поддерживаемые ОС | Windows, macOS, Linux |
| Аппаратное ускорение | Только для чипов Apple M5 (M5 Pro, M5 Max) |
| Требования к памяти | Минимум 32 ГБ унифицированной RAM |
Что изменилось
Ollama позволяет пользователям загружать и запускать модели искусственного интеллекта прямо на своём компьютере. В отличие от облачных сервисов вроде ChatGPT, здесь не требуется постоянное подключение к сети.
Начиная с версии 0.19 разработчики добавили поддержку Apple MLX – фреймворка машинного обучения, а также унифицированной памяти (Unified Memory Architecture). Это позволяет ускорить работу модели на новых чипах Apple M5, сокращая время до первого токена и повышая общую скорость генерации.
Как это работает
* Нейроускорители: Ollama обращается к специализированным нейросетевым блокам внутри чипов M5, что делает вывод токенов более быстрым.
* Модели: Быстрее работают как персональные ИИ‑агенты (например, OpenClaw), так и более крупные системы – OpenCode, Anthropic Claude Code, OpenAI Codex и др.
Ограничения
1. Ускорение доступно только на чипах Apple M5 (M5 Pro/Max).
2. На компьютере должна быть установлена не менее 32 ГБ унифицированной памяти; иначе ускорение не сработает.
Таким образом, если у вас Mac с чипом M5 и достаточным объёмом RAM, вы сможете заметно повысить производительность локального ИИ‑приложения Ollama.
Комментарии (0)
Оставьте отзыв — пожалуйста, будьте вежливы и по теме.
Войти, чтобы комментировать