Ollama teraz obsługuje przyspieszenie sprzętowe na chipach Apple M5, jeśli zainstalowano 32 GB pamięci RAM
Ollama — aplikacja do lokalnego uruchamiania modeli AI jest teraz szybsza na chipach M5 w Macu
Co się zmieniło
Ollama pozwala użytkownikom pobierać i uruchamiać modele sztucznej inteligencji bezpośrednio na swoim komputerze. W przeciwieństwie do usług chmurowych, takich jak ChatGPT, nie wymaga stałego połączenia z siecią.
Od wersji 0.19 deweloperzy dodali wsparcie dla Apple MLX – frameworku uczenia maszynowego oraz architektury pamięci zunifikowanej (Unified Memory Architecture). Dzięki temu model działa szybciej na nowych chipach Apple M5, skracając czas do pierwszego tokena i zwiększając ogólną szybkość generacji.
Jak to działa
* Akceleratory neuronowe: Ollama korzysta z dedykowanych bloków sieci neuronowych w chipie M5, co przyspiesza wydobycie tokenów.
* Modele: Szybciej działają zarówno osobiste agenty AI (np. OpenClaw), jak i większe systemy – OpenCode, Anthropic Claude Code, OpenAI Codex i inne.
Ograniczenia
1. Przyspieszenie dostępne jest tylko na chipach Apple M5 (M5 Pro/Max).
2. Komputer musi mieć co najmniej 32 GB pamięci zunifikowanej; w przeciwnym razie przyspieszenie nie zadziała.
Dlatego, jeśli masz Mac z chipem M5 i wystarczającą ilością RAM, możesz znacznie zwiększyć wydajność lokalnej aplikacji AI Ollama.
Komentarze (0)
Podziel się swoją opinią — prosimy o uprzejmość i trzymanie się tematu.
Zaloguj się, aby komentować