Twoody Private LLM

Modèles locaux ou privés, sans fallback caché. Local or private models, without hidden fallback.

Twoody Private LLM permet à Twoody Server d'appeler le modèle que vous contrôlez : Ollama, MLX sur Mac, llama.cpp, vLLM, TGI ou un provider cloud explicitement configuré. Twoody Private LLM lets Twoody Server call the model you control: Ollama, MLX on Mac, llama.cpp, vLLM, TGI or an explicitly configured cloud provider.

Ce que ça fait What it does

Providers interchangeables Replaceable providers

Le serveur garde une surface stable pendant que le runtime peut évoluer. The server keeps a stable surface while the runtime can evolve.

Pas de bascule silencieuse No silent switch

Un provider externe n'est utilisé que s'il est configuré et compris comme tel. An external provider is used only when configured and understood as such.

Mesures utiles Useful metrics

Les pages techniques peuvent parler machines, RAM, latence, benchmarks et taille de modèle. Technical pages can discuss machines, RAM, latency, benchmarks and model size.

Comment ça marche How it works

01

Installer Install

Le runtime est installé localement ou sur un serveur privé. The runtime is installed locally or on a private server.

02

Déclarer Register

Twoody Server connaît l'endpoint, le modèle et les limites. Twoody Server knows the endpoint, model and limits.

03

Router Route

Les requêtes partent vers le provider choisi pour le mode actif. Requests go to the chosen provider for the active mode.

04

Diagnostiquer Diagnose

Les erreurs de modèle restent lisibles au lieu d'être masquées. Model errors stay readable instead of being hidden.

FAQ

Est-ce uniquement local ? Is it only local?

Non. Local est le cas le plus visible, mais Twoody Private LLM couvre aussi un runtime sur serveur privé ou un provider explicite. No. Local is the most visible case, but Twoody Private LLM also covers a private-server runtime or an explicit provider.

Quels runtimes sont visés ? Which runtimes are targeted?

Ollama, MLX, llama.cpp, vLLM et TGI forment la base SEO et technique initiale. Ollama, MLX, llama.cpp, vLLM and TGI are the initial SEO and technical base.