Ollama teraz obsługuje przyspieszenie sprzętowe na chipach Apple M5, jeśli zainstalowano 32 GB pamięci RAM

Ollama teraz obsługuje przyspieszenie sprzętowe na chipach Apple M5, jeśli zainstalowano 32 GB pamięci RAM

19 software

Ollama — aplikacja do lokalnego uruchamiania modeli AI jest teraz szybsza na chipach M5 w Macu

Co się zmieniło
Ollama pozwala użytkownikom pobierać i uruchamiać modele sztucznej inteligencji bezpośrednio na swoim komputerze. W przeciwieństwie do usług chmurowych, takich jak ChatGPT, nie wymaga stałego połączenia z siecią.

Od wersji 0.19 deweloperzy dodali wsparcie dla Apple MLX – frameworku uczenia maszynowego oraz architektury pamięci zunifikowanej (Unified Memory Architecture). Dzięki temu model działa szybciej na nowych chipach Apple M5, skracając czas do pierwszego tokena i zwiększając ogólną szybkość generacji.

Jak to działa
* Akceleratory neuronowe: Ollama korzysta z dedykowanych bloków sieci neuronowych w chipie M5, co przyspiesza wydobycie tokenów.
* Modele: Szybciej działają zarówno osobiste agenty AI (np. OpenClaw), jak i większe systemy – OpenCode, Anthropic Claude Code, OpenAI Codex i inne.

Ograniczenia
1. Przyspieszenie dostępne jest tylko na chipach Apple M5 (M5 Pro/Max).
2. Komputer musi mieć co najmniej 32 GB pamięci zunifikowanej; w przeciwnym razie przyspieszenie nie zadziała.

Dlatego, jeśli masz Mac z chipem M5 i wystarczającą ilością RAM, możesz znacznie zwiększyć wydajność lokalnej aplikacji AI Ollama.

Komentarze (0)

Podziel się swoją opinią — prosimy o uprzejmość i trzymanie się tematu.

Nie ma jeszcze komentarzy. Zostaw komentarz i podziel się swoją opinią!

Aby dodać komentarz, zaloguj się.

Zaloguj się, aby komentować