MLX sur Mac
Twoody Mac installe la stack MLX, télécharge les poids et expose un serveur local compatible.
Private LLM est la capacité qui permet à Twoody Server de router les requêtes vers un modèle que vous contrôlez : MLX sur Mac, Ollama, llama.cpp, vLLM, TGI ou un provider cloud explicitement configuré.
Twoody Mac installe la stack MLX, télécharge les poids et expose un serveur local compatible.
OpenAI-compatible permet de changer de runtime sans réécrire l'expérience produit.
Rapide, code, raisonnement, documents longs : le bon modèle dépend de la tâche.
Twoody connaît les machines connectées et leurs capacités.
L'utilisateur lance le téléchargement du modèle depuis l'app.
Le modèle devient le provider actif pour le mode choisi.
RAM, latence et tok/s indiquent si la machine suit.
Non. Private LLM met le mode local au premier plan, mais Twoody Server peut aussi router vers un provider cloud explicitement configuré.
L'utilisateur ou l'admin selon le contexte. Le site doit montrer que l'installation et la sélection peuvent se faire à distance.