"ThunderAI" Guía de configuración - OpenAI Compatible API
La integración con la OpenAI Compatible API te permite conectar ThunderAI a cualquier servidor que siga el formato de la API de OpenAI.
Esto incluye servidores locales como LM Studio, servicios alojados como DeepSeek, Grok, Mistral AI, OpenRouter y Perplexity, así como cualquier endpoint personalizado o autoalojado.
| Clave de API requerida | Depende del servicio |
| Opción gratuita | Depende del servicio (los servidores locales son gratuitos) |
| Ideal para | Flexibilidad: servidores locales, proveedores alternativos, endpoints personalizados |
Configuraciones predefinidas
ThunderAI incluye configuraciones predefinidas para los servicios compatibles con OpenAI más populares. Si usas uno de ellos, selecciona la configuración predefinida y solo proporciona tu clave de API:
| Configuración predefinida | Notas |
|---|---|
| DeepSeek API | Rápido y rentable, modelos de razonamiento potentes |
| Grok API | Los modelos Grok de xAI |
| Mistral API | Los modelos alojados de Mistral AI |
| OpenRouter API | Accede a muchos proveedores con una sola clave de API |
| Perplexity API | Incluye modelos con búsqueda web integrada |
Configuración
1. Abre las Opciones de ThunderAI
En Thunderbird, haz clic en el menú de ThunderAI y selecciona Options, o ve a
Herramientas → Complementos y temas → ThunderAI → Preferencias.
2. Selecciona la integración OpenAI Compatible API
En la sección Connection, elige OpenAI Compatible API del menú desplegable de integración.
3a. Usar una configuración predefinida
Si tu proveedor tiene una configuración predefinida, selecciónala de la lista. La URL de la API se rellenará automáticamente. Introduce tu clave de API y pasa al paso 5.
3b. Configuración manual
Si tu proveedor no está en la lista de configuraciones predefinidas, configúralo manualmente:
- API URL: Introduce la URL base de tu servidor. Para LM Studio ejecutándose localmente, suele ser
http://localhost:1234/v1. Para proveedores alojados, consulta su documentación. - Remove "v1" from URL: Actívalo si la documentación de tu proveedor te indica que uses la URL base sin el segmento
/v1.
4. Introduce tu clave de API (si es necesario)
Los servidores locales como LM Studio generalmente no requieren una clave de API, por lo que puedes dejar este campo vacío o introducir cualquier valor de marcador. Los servicios alojados requerirán una clave válida.
5. Elige un modelo
Selecciona tu modelo del menú desplegable Model. Usa el botón para actualizar la lista.
Si el servidor no expone un endpoint de lista de modelos, activa la opción Set model name manually y escribe el nombre del modelo tal como lo especifica tu proveedor.
6. Guarda y prueba
Haz clic en Save. Abre cualquier correo electrónico, usa el menú de ThunderAI y ejecuta un prompt para verificar que todo funciona.
LM Studio — configuración rápida
LM Studio proporciona un servidor local con una API compatible con OpenAI y una interfaz gráfica para descargar y gestionar modelos.
- Descarga e instala LM Studio desde lmstudio.ai
- En LM Studio, ve a la pestaña Local Server e inicia el servidor
- Descarga un modelo de tu elección desde el navegador de modelos de LM Studio
- En ThunderAI, establece la URL de la API como
http://localhost:1234/v1, deja la clave de API vacía y selecciona tu modelo
Consejos
- OpenRouter es una excelente opción si quieres acceder a muchos modelos diferentes (incluyendo Claude, Gemini y Mistral) con una sola clave de API y cuenta de facturación.
- Al usar servidores locales, el rendimiento depende de tu hardware — consulta la guía de Ollama para consejos sobre hardware.
- Si las solicitudes fallan con un error CORS y no puedes añadir la configuración adecuada en el servidor, usa el permiso opcional "All URLs" en los ajustes de ThunderAI como solución alternativa.
Solución de problemas
"Connection refused" en un servidor local
Asegúrate de que el servidor local (p. ej. LM Studio) está realmente en ejecución y de que la URL del servidor en ThunderAI coincide con el puerto en el que está escuchando.
Error "401 Unauthorized"
Comprueba tu clave de API. Para servidores locales que no requieren clave, prueba introducir un valor ficticio como none. Algunos servidores rechazan los campos de clave vacíos.
Lista de modelos vacía
Activa la opción Set model name manually y escribe el nombre del modelo tal como lo especifica tu proveedor o la documentación del servidor.
El "v1" en la URL provoca errores
Activa la opción Remove "v1" from URL en los ajustes de ThunderAI.