Ollama runtime

Ollama pour démarrer un local LLM server simple. Ollama to start a simple local LLM server.

Ollama est une option directe pour lancer et gérer des modèles locaux. Avec Twoody, il devient un runtime derrière Twoody Server, pas l'expérience utilisateur finale. Ollama is a direct option for running and managing local models. With Twoody, it becomes a runtime behind Twoody Server, not the final user experience.

Ce que ça fait What it does

Bon point de départ Good starting point

Ollama réduit la friction d'installation pour essayer des modèles locaux. Ollama reduces setup friction for trying local models.

Provider dans Twoody Provider in Twoody

Twoody Server peut router vers Ollama comme runtime configuré. Twoody Server can route to Ollama as a configured runtime.

Au-dessus du modèle Above the model

Documents, voix, tunnel, permissions et actions restent côté Twoody. Documents, voice, tunnel, permissions and actions stay on the Twoody side.

Comment ça marche How it works

01

Installer Ollama Install Ollama

Installer le runtime et récupérer un modèle. Install the runtime and fetch a model.

02

Tester l'API Test the API

Vérifier que le serveur local répond. Check that the local server responds.

03

Déclarer dans Twoody Register in Twoody

Ajouter l'endpoint comme provider privé. Add the endpoint as a private provider.

04

Observer Observe

Suivre latence, disponibilité et taille de modèle. Track latency, availability and model size.

Détails techniques Technical details

Model tags Model tags

Les tags Ollama rendent le modèle actif explicite : nom, taille, quantization et version peuvent être visibles dans Twoody Server. Ollama tags make the active model explicit: name, size, quantization and version can be visible in Twoody Server.

API locale Local API

Ollama peut être déclaré comme endpoint local ou privé ; Twoody garde le provider routing, les timeouts et les erreurs lisibles. Ollama can be registered as a local or private endpoint; Twoody keeps provider routing, timeouts and errors readable.

Benchmarks Benchmarks

Les mesures utiles restent latence, tok/s, RAM utilisée, context window et temps de chargement du modèle. Useful measurements remain latency, tok/s, RAM used, context window and model load time.

FAQ

Ollama suffit-il pour Twoody Private Hub ? Is Ollama enough for Twoody Private Hub?

Ollama sert les modèles. Twoody Private Hub ajoute apps, serveur, documents, tunnel, permissions et diagnostics. Ollama serves models. Twoody Private Hub adds apps, server, documents, tunnel, permissions and diagnostics.

Est-ce une page Twoody Local ? Is this a Twoody Local page?

Non. Local LLM server est le besoin technique ; la marque produit reste Twoody Private LLM. No. Local LLM server is the technical need; the product brand remains Twoody Private LLM.