Nous sommes en bêta. Les LLM privacy locaux et les serveurs voice fonctionnent déjà — au lancement, un cluster GPU sera en ligne, rendant les temps de réponse bien plus rapides. Les forfaits et les prix peuvent encore évoluer pendant la bêta.
Les tenants peuvent enregistrer leurs propres clés API Anthropic, OpenAI ou Google dans le portail. La consommation est facturée sur leur compte, pas sur les crédits de la plateforme.
Endpoint compatible OpenAI configurable par bot — LLM auto-hébergé (Llama, Mistral, fine-tune personnalisé) ou un autre fournisseur cloud via API standard.
Endpoint Whisper/STT personnalisé par tenant. Pour l'audio qui ne doit jamais quitter votre infrastructure, ou pour les tenants disposant de leur propre cluster GPU.
Mode strict-privacy : les prompts ne partent jamais vers un cloud externe. Par bot, on configure un modèle, une chaîne de fallback et un plafond mensuel.
Les tenants peuvent désormais configurer le message d'accueil et les suggestions par langue depuis le portail.
Formulaires publics renforcés, double opt-in pour les inscriptions, protection CRLF dans le mailer. Voir l'avis.
Tous les e-mails sortants en style Bento avec logo intégré et variante texte brut ASCII-safe.
Routage Whisper local pour les visiteurs qui choisissent « pas de cloud ».
Des clients sélectionnés peuvent tester la plateforme en direct. Accès sur invitation. Objectif : stabilité + cas limites avant un déploiement plus large. NOUS SOMMES ICI.
Inscriptions publiques ouvertes. Toutes les fonctionnalités fonctionnent sous charge réelle. Onboarding self-service pour PME.
Fin de la phase bêta. Forfaits et prix définitifs. L'extension GPU porte le LLM privacy local au niveau de vitesse du cloud.
Offre pour les organisations à souveraineté des données stricte : hébergé par InterAIP ou installé sur l'infrastructure du client. Même stack, votre emplacement.
Tous les problèmes de sécurité signalés et vérifiés sont publics via nos Security Advisories.
Un problème détecté ? Envoyez un e-mail à security@interaip.ai.