"ThunderAI" Guía de configuración - Ollama (IA local)
La integración con Ollama te permite ejecutar modelos de IA localmente en tu propia máquina.
Tus correos nunca salen de tu ordenador: no hay claves de API, no hay servicios en la nube, no hay costes más allá de tu hardware.
| Clave de API requerida | No |
| Opción gratuita | Sí [Completamente gratuito, usas tu propio hardware] |
| ¿Privado / Local? | Sí [Todo se queda en tu máquina] |
| Ideal para | Usuarios preocupados por la privacidad, correos sensibles, uso sin conexión |
Requisitos previos
- Ollama instalado y ejecutándose en tu máquina (o accesible en tu red local)
- Al menos un modelo descargado en Ollama
- Thunderbird con ThunderAI instalado
Instalación de Ollama y descarga de un modelo
Si aún no has instalado Ollama:
- Descárgalo de ollama.com y sigue las instrucciones de instalación para tu sistema operativo
- Abre una terminal y descarga un modelo, por ejemplo:
ollama pull llama3
Otras buenas opciones para tareas de correo:mistral,phi3,gemma2 - Verifica que Ollama está en funcionamiento:
ollama list
Configuración de CORS
Las extensiones de Thunderbird se ejecutan en un entorno de sandbox, por lo que Ollama debe configurarse para aceptar solicitudes de extensiones de navegador.
Debes establecer la variable de entorno OLLAMA_ORIGINS con el valor moz-extension://*.
Para configuraciones de CORS más detalladas, consulta la página de información CORS de Ollama.
Configuración
1. Abre las Opciones de ThunderAI
En Thunderbird, haz clic en el menú de ThunderAI y selecciona Options, o ve a
Herramientas → Complementos y temas → ThunderAI → Preferencias.
2. Selecciona la integración Ollama
En la sección Connection, elige Ollama del menú desplegable de integración.
3. Establece la URL del servidor
Introduce la URL de tu servidor Ollama. La predeterminada es:
http://localhost:11434
Si Ollama se ejecuta en otra máquina de tu red, reemplaza localhost con la dirección IP de esa máquina.
4. Elige un modelo
Selecciona un modelo del menú desplegable Model. Haz clic en el botón para actualizar la lista.
5. Guarda y prueba
Haz clic en Save. Abre cualquier correo electrónico, usa el menú de ThunderAI y ejecuta un prompt para verificar la conexión.
Consejos
- El rendimiento depende de tu hardware. Una máquina moderna con al menos 16 GB de RAM manejará cómodamente modelos como
llama3omistral. Una GPU acelera significativamente el proceso. - Los modelos más pequeños (7B parámetros) son más rápidos pero menos capaces; los modelos más grandes (13B, 70B) producen mejores resultados pero requieren más recursos.
- Para tareas de correo electrónico,
mistralyllama3son opciones populares que ofrecen un buen equilibrio entre calidad y velocidad.
Solución de problemas
"Failed to connect" o sin respuesta
Comprueba que Ollama está realmente en ejecución (ollama list en una terminal). Verifica que la URL del servidor en las opciones de ThunderAI coincide con tu configuración de Ollama.
Error CORS
La variable OLLAMA_ORIGINS no está configurada o Ollama no se reinició tras configurarla. Sigue los pasos anteriores de nuevo, o usa el permiso "All URLs" como solución alternativa.
Lista de modelos vacía
Asegúrate de haber descargado al menos un modelo con ollama pull <nombre_del_modelo> y de que Ollama está en ejecución.