Twoody Chat

Un chat IA connecté à vos modèles, vos outils et vos documents.

Twoody Chat est l'interface quotidienne : poser une question, résumer un document, lancer un outil, garder l'historique et choisir le modèle adapté. En self-hosted, le chemin principal passe par votre Twoody Server.

Routage intelligent

Twoody Server reçoit la demande, choisit le provider configuré et garde une trace claire du mode utilisé.

Contexte utile

Documents, notes, pièces jointes et outils peuvent enrichir la réponse sans mélanger toutes vos données.

Actions confirmées

Les actions sensibles doivent rester explicites : envoyer, publier, modifier, supprimer ou payer.

Comment ça marche

01

Écrivez

Vous parlez normalement depuis web, mobile ou desktop.

02

Twoody Server route

Le serveur applique auth, modèle, outils et contexte.

03

Le modèle répond

La réponse arrive en streaming avec le provider choisi.

04

L'historique reste clair

Chaque discussion garde son contexte sans cacher le mode d'exécution.

Détails importants

Pour l'utilisateur

  • Une même conversation peut utiliser modèles, documents et outils.
  • Les réponses indiquent mieux ce qui est local, managé ou cloud.
  • Le chat reste utile même sans vendre uniquement la confidentialité.

Pour l'équipe technique

  • Le format OpenAI-compatible garde les providers remplaçables.
  • Les outils peuvent être activés progressivement par capacité.
  • Le self-hosted évite un fallback silencieux vers un autre modèle.

FAQ

Chat et Private LLM sont-ils la même chose ?

Non. Chat est l'expérience utilisateur. Private LLM est une capacité d'exécution : le modèle qui répond peut tourner sur votre infrastructure.

Peut-on utiliser un modèle cloud ?

Oui, si vous le configurez explicitement. La promesse “Twoody ne reçoit pas vos messages” concerne le mode self-hosted.