Autor: Redakcia AI Feed
Ollama stavia na MLX a zrýchľuje lokálnu AI na Apple Silicon
Ollama v preview prepája svoj lokálny stack s frameworkom MLX a sľubuje výrazne rýchlejšie spúšťanie modelov na Apple Silicon. Pre používateľov Macov je dôležité, že lokálne agentické workflow sa tým posúvajú z hobby režimu bližšie k serióznej práci.