Skip to main content

Mic's

Silence is golden.

"ThunderAI" Guía de configuración - Ollama (IA local)

La integración con Ollama te permite ejecutar modelos de IA localmente en tu propia máquina.
Tus correos nunca salen de tu ordenador: no hay claves de API, no hay servicios en la nube, no hay costes más allá de tu hardware.

Clave de API requeridaNo
Opción gratuitaSí [Completamente gratuito, usas tu propio hardware]
¿Privado / Local?Sí [Todo se queda en tu máquina]
Ideal paraUsuarios preocupados por la privacidad, correos sensibles, uso sin conexión

Requisitos previos

  • Ollama instalado y ejecutándose en tu máquina (o accesible en tu red local)
  • Al menos un modelo descargado en Ollama
  • Thunderbird con ThunderAI instalado

Instalación de Ollama y descarga de un modelo

Si aún no has instalado Ollama:

  1. Descárgalo de ollama.com y sigue las instrucciones de instalación para tu sistema operativo
  2. Abre una terminal y descarga un modelo, por ejemplo:
    ollama pull llama3
    Otras buenas opciones para tareas de correo: mistral, phi3, gemma2
  3. Verifica que Ollama está en funcionamiento:
    ollama list

Configuración de CORS

Las extensiones de Thunderbird se ejecutan en un entorno de sandbox, por lo que Ollama debe configurarse para aceptar solicitudes de extensiones de navegador.
Debes establecer la variable de entorno OLLAMA_ORIGINS con el valor moz-extension://*.

Para configuraciones de CORS más detalladas, consulta la página de información CORS de Ollama.

Configuración

1. Abre las Opciones de ThunderAI

En Thunderbird, haz clic en el menú de ThunderAI y selecciona Options, o ve a
Herramientas → Complementos y temas → ThunderAI → Preferencias.

2. Selecciona la integración Ollama

En la sección Connection, elige Ollama del menú desplegable de integración.

3. Establece la URL del servidor

Introduce la URL de tu servidor Ollama. La predeterminada es:

http://localhost:11434

Si Ollama se ejecuta en otra máquina de tu red, reemplaza localhost con la dirección IP de esa máquina.

4. Elige un modelo

Selecciona un modelo del menú desplegable Model. Haz clic en el botón para actualizar la lista.

5. Guarda y prueba

Haz clic en Save. Abre cualquier correo electrónico, usa el menú de ThunderAI y ejecuta un prompt para verificar la conexión.

Consejos

  • El rendimiento depende de tu hardware. Una máquina moderna con al menos 16 GB de RAM manejará cómodamente modelos como llama3 o mistral. Una GPU acelera significativamente el proceso.
  • Los modelos más pequeños (7B parámetros) son más rápidos pero menos capaces; los modelos más grandes (13B, 70B) producen mejores resultados pero requieren más recursos.
  • Para tareas de correo electrónico, mistral y llama3 son opciones populares que ofrecen un buen equilibrio entre calidad y velocidad.

Solución de problemas

"Failed to connect" o sin respuesta

Comprueba que Ollama está realmente en ejecución (ollama list en una terminal). Verifica que la URL del servidor en las opciones de ThunderAI coincide con tu configuración de Ollama.

Error CORS

La variable OLLAMA_ORIGINS no está configurada o Ollama no se reinició tras configurarla. Sigue los pasos anteriores de nuevo, o usa el permiso "All URLs" como solución alternativa.

Lista de modelos vacía

Asegúrate de haber descargado al menos un modelo con ollama pull <nombre_del_modelo> y de que Ollama está en ejecución.


Volver a las guías  |  Siguiente: OpenAI Compatible API →