Skip to main content

Mic's

Silence is golden.

"ThunderAI" Guía de configuración - OpenAI Compatible API

La integración con la OpenAI Compatible API te permite conectar ThunderAI a cualquier servidor que siga el formato de la API de OpenAI.
Esto incluye servidores locales como LM Studio, servicios alojados como DeepSeek, Grok, Mistral AI, OpenRouter y Perplexity, así como cualquier endpoint personalizado o autoalojado.

Clave de API requeridaDepende del servicio
Opción gratuitaDepende del servicio (los servidores locales son gratuitos)
Ideal paraFlexibilidad: servidores locales, proveedores alternativos, endpoints personalizados

Configuraciones predefinidas

ThunderAI incluye configuraciones predefinidas para los servicios compatibles con OpenAI más populares. Si usas uno de ellos, selecciona la configuración predefinida y solo proporciona tu clave de API:

Configuración predefinidaNotas
DeepSeek APIRápido y rentable, modelos de razonamiento potentes
Grok APILos modelos Grok de xAI
Mistral APILos modelos alojados de Mistral AI
OpenRouter APIAccede a muchos proveedores con una sola clave de API
Perplexity APIIncluye modelos con búsqueda web integrada

Configuración

1. Abre las Opciones de ThunderAI

En Thunderbird, haz clic en el menú de ThunderAI y selecciona Options, o ve a
Herramientas → Complementos y temas → ThunderAI → Preferencias.

2. Selecciona la integración OpenAI Compatible API

En la sección Connection, elige OpenAI Compatible API del menú desplegable de integración.

3a. Usar una configuración predefinida

Si tu proveedor tiene una configuración predefinida, selecciónala de la lista. La URL de la API se rellenará automáticamente. Introduce tu clave de API y pasa al paso 5.

3b. Configuración manual

Si tu proveedor no está en la lista de configuraciones predefinidas, configúralo manualmente:

  • API URL: Introduce la URL base de tu servidor. Para LM Studio ejecutándose localmente, suele ser http://localhost:1234/v1. Para proveedores alojados, consulta su documentación.
  • Remove "v1" from URL: Actívalo si la documentación de tu proveedor te indica que uses la URL base sin el segmento /v1.

4. Introduce tu clave de API (si es necesario)

Los servidores locales como LM Studio generalmente no requieren una clave de API, por lo que puedes dejar este campo vacío o introducir cualquier valor de marcador. Los servicios alojados requerirán una clave válida.

5. Elige un modelo

Selecciona tu modelo del menú desplegable Model. Usa el botón para actualizar la lista.

Si el servidor no expone un endpoint de lista de modelos, activa la opción Set model name manually y escribe el nombre del modelo tal como lo especifica tu proveedor.

6. Guarda y prueba

Haz clic en Save. Abre cualquier correo electrónico, usa el menú de ThunderAI y ejecuta un prompt para verificar que todo funciona.

LM Studio — configuración rápida

LM Studio proporciona un servidor local con una API compatible con OpenAI y una interfaz gráfica para descargar y gestionar modelos.

  1. Descarga e instala LM Studio desde lmstudio.ai
  2. En LM Studio, ve a la pestaña Local Server e inicia el servidor
  3. Descarga un modelo de tu elección desde el navegador de modelos de LM Studio
  4. En ThunderAI, establece la URL de la API como http://localhost:1234/v1, deja la clave de API vacía y selecciona tu modelo

Consejos

  • OpenRouter es una excelente opción si quieres acceder a muchos modelos diferentes (incluyendo Claude, Gemini y Mistral) con una sola clave de API y cuenta de facturación.
  • Al usar servidores locales, el rendimiento depende de tu hardware — consulta la guía de Ollama para consejos sobre hardware.
  • Si las solicitudes fallan con un error CORS y no puedes añadir la configuración adecuada en el servidor, usa el permiso opcional "All URLs" en los ajustes de ThunderAI como solución alternativa.

Solución de problemas

"Connection refused" en un servidor local

Asegúrate de que el servidor local (p. ej. LM Studio) está realmente en ejecución y de que la URL del servidor en ThunderAI coincide con el puerto en el que está escuchando.

Error "401 Unauthorized"

Comprueba tu clave de API. Para servidores locales que no requieren clave, prueba introducir un valor ficticio como none. Algunos servidores rechazan los campos de clave vacíos.

Lista de modelos vacía

Activa la opción Set model name manually y escribe el nombre del modelo tal como lo especifica tu proveedor o la documentación del servidor.

El "v1" en la URL provoca errores

Activa la opción Remove "v1" from URL en los ajustes de ThunderAI.


Volver a las guías