Estamos en beta. Los LLM privacy locales y los servidores de voz ya están en funcionamiento — en el lanzamiento se activará un clúster de GPU que hará los tiempos de respuesta mucho más rápidos. Los paquetes y precios aún pueden cambiar durante la beta.
Los tenants pueden registrar sus propias claves API de Anthropic, OpenAI o Google en el portal. El consumo se factura en su propia cuenta, no en los créditos de la plataforma.
Endpoint compatible con OpenAI configurable por bot — LLM autoalojado (Llama, Mistral, fine-tune personalizado) u otro proveedor cloud vía API estándar.
Endpoint Whisper/STT personalizado por tenant. Para audio que nunca debe salir de tu infraestructura, o para tenants con su propio clúster GPU.
Modo strict-privacy: los prompts nunca salen hacia una nube externa. Por bot se configura un modelo, una cadena de fallback y un tope mensual.
Los tenants ahora pueden configurar el saludo y sugerencias por idioma desde el portal.
Formularios públicos endurecidos, doble opt-in para los registros, protección CRLF en el mailer. Consulte el aviso.
Todos los correos salientes ahora en estilo Bento con logo en línea y variante de texto plano ASCII-safe.
Enrutamiento local de Whisper para los visitantes que eligen "sin nube".
Clientes seleccionados pueden probar la plataforma en vivo. Acceso por invitación. Objetivo: estabilidad + casos límite antes de un despliegue más amplio. ESTAMOS AQUÍ.
Registro público abierto. Todas las funciones funcionando bajo carga real. Onboarding self-service para pymes.
Fin de la fase beta. Paquetes y precios definitivos. La expansión de GPU lleva el LLM privacy local a la velocidad de la nube.
Oferta para organizaciones con estricta soberanía de datos: alojado por InterAIP o instalado en la infraestructura del cliente. La misma stack, tu ubicación.
Todas las incidencias de seguridad notificadas y verificadas son públicas en nuestros Security Advisories.
¿Has encontrado un problema? Escribe a security@interaip.ai.