Wir sind in der Beta. Lokale Privacy-LLMs und Voice-Server laufen bereits — beim Launch geht ein GPU-Cluster online, das die Antwortzeiten um ein Vielfaches beschleunigt. Pakete und Preise können sich während der Beta noch ändern.
Tenants können eigene Anthropic-, OpenAI- oder Google-API-Schlüssel im Portal hinterlegen. Verbrauch wird auf das eigene Konto abgerechnet, nicht auf Plattform-Credits.
OpenAI-kompatibles Endpoint pro Bot konfigurierbar — selbst gehostetes LLM (Llama, Mistral, eigenes Fine-Tune) oder ein anderer Cloud-Provider über Standard-API.
Eigenes Whisper/STT-Endpoint pro Tenant. Für Audio, das niemals Ihre Infrastruktur verlassen darf, oder für Tenants mit eigenem GPU-Cluster.
Strict-Privacy-Modus: Prompts verlassen niemals die Umgebung Richtung externer Cloud. Pro Bot lassen sich Modell, Fallback-Kette und monatliches Limit einstellen.
Tenants können jetzt Begrüßung + Vorschläge pro Sprache im Portal konfigurieren.
Öffentliche Formulare gehärtet, Double-Opt-in für Anmeldungen, CRLF-Schutz im Mailer. Siehe Advisory.
Alle ausgehenden Mails jetzt im Bento-Stil mit Inline-Logo und ASCII-sicherer Klartext-Variante.
Lokales Whisper-Routing für Besucher, die „keine Cloud" wählen.
Ausgewählte Kunden können die Plattform live testen. Zugang auf Einladung. Ziel: Stabilität + Edge Cases vor breiterer Einführung. WIR SIND HIER.
Öffentliche Anmeldung offen. Alle Funktionen laufen unter realer Last. Self-Service-Onboarding für KMU.
Ende der Beta-Phase. Endgültige Pakete und Preise. GPU-Erweiterung bringt das lokale Privacy-LLM auf Cloud-Geschwindigkeit.
Angebot für Organisationen mit strikter Datensouveränität: gehostet von InterAIP oder auf der eigenen Infrastruktur des Kunden installiert. Gleicher Stack, Ihr Standort.
Alle gemeldeten und verifizierten Sicherheitsprobleme sind öffentlich einsehbar über unsere Security Advisories.
Ein Problem gefunden? Mailen Sie an security@interaip.ai.