Bon point de départ Good starting point
Ollama réduit la friction d'installation pour essayer des modèles locaux. Ollama reduces setup friction for trying local models.
Ollama est une option directe pour lancer et gérer des modèles locaux. Avec Twoody, il devient un runtime derrière Twoody Server, pas l'expérience utilisateur finale. Ollama is a direct option for running and managing local models. With Twoody, it becomes a runtime behind Twoody Server, not the final user experience.
Ollama réduit la friction d'installation pour essayer des modèles locaux. Ollama reduces setup friction for trying local models.
Twoody Server peut router vers Ollama comme runtime configuré. Twoody Server can route to Ollama as a configured runtime.
Documents, voix, tunnel, permissions et actions restent côté Twoody. Documents, voice, tunnel, permissions and actions stay on the Twoody side.
Installer le runtime et récupérer un modèle. Install the runtime and fetch a model.
Vérifier que le serveur local répond. Check that the local server responds.
Ajouter l'endpoint comme provider privé. Add the endpoint as a private provider.
Suivre latence, disponibilité et taille de modèle. Track latency, availability and model size.
Les tags Ollama rendent le modèle actif explicite : nom, taille, quantization et version peuvent être visibles dans Twoody Server. Ollama tags make the active model explicit: name, size, quantization and version can be visible in Twoody Server.
Ollama peut être déclaré comme endpoint local ou privé ; Twoody garde le provider routing, les timeouts et les erreurs lisibles. Ollama can be registered as a local or private endpoint; Twoody keeps provider routing, timeouts and errors readable.
Les mesures utiles restent latence, tok/s, RAM utilisée, context window et temps de chargement du modèle. Useful measurements remain latency, tok/s, RAM used, context window and model load time.
Ollama sert les modèles. Twoody Private Hub ajoute apps, serveur, documents, tunnel, permissions et diagnostics. Ollama serves models. Twoody Private Hub adds apps, server, documents, tunnel, permissions and diagnostics.
Non. Local LLM server est le besoin technique ; la marque produit reste Twoody Private LLM. No. Local LLM server is the technical need; the product brand remains Twoody Private LLM.