Guide de configuration pour "ThunderAI" - Ollama (IA locale)
L'intégration Ollama vous permet d'exécuter des modèles AI localement sur votre propre machine.
Vos e-mails ne quittent jamais votre ordinateur : aucune clé API, aucun service cloud, aucun coût au-delà de votre matériel.
| Clé API requise | Non |
| Option gratuite | Oui [Entièrement gratuit, vous utilisez votre matériel] |
| Privé / Local ? | Oui [Tout reste sur votre machine] |
| Idéal pour | Utilisateurs soucieux de la confidentialité, e-mails sensibles, usage hors ligne |
Prérequis
- Ollama installé et en cours d'exécution sur votre machine (ou accessible sur votre réseau local)
- Au moins un modèle téléchargé dans Ollama
- Thunderbird avec ThunderAI installé
Installer Ollama et télécharger un modèle
Si vous n'avez pas encore installé Ollama :
- Téléchargez-le depuis ollama.com et suivez les instructions d'installation pour votre système d'exploitation
- Ouvrez un terminal et téléchargez un modèle, par exemple :
ollama pull llama3
Autres bons choix pour les tâches e-mail :mistral,phi3,gemma2 - Vérifiez qu'Ollama est en cours d'exécution :
ollama list
Configuration de CORS
Les extensions Thunderbird s'exécutent dans un environnement sandbox, Ollama doit donc être configuré pour accepter les requêtes provenant des extensions de navigateur.
Vous devez définir la variable d'environnement OLLAMA_ORIGINS sur moz-extension://*.
Pour des configurations CORS plus détaillées, consultez la page d'information CORS d'Ollama.
Configuration
1. Ouvrir les options de ThunderAI
Dans Thunderbird, cliquez sur le menu ThunderAI et sélectionnez Options, ou accédez à
Outils → Modules complémentaires et thèmes → ThunderAI → Préférences.
2. Sélectionner l'intégration Ollama
Dans la section Connection, choisissez Ollama dans le menu déroulant des intégrations.
3. Définir l'URL du serveur
Saisissez l'URL de votre serveur Ollama. La valeur par défaut est :
http://localhost:11434
Si Ollama s'exécute sur une autre machine de votre réseau, remplacez localhost par l'adresse IP de cette machine.
4. Choisir un modèle
Sélectionnez un modèle dans le menu déroulant Model. Cliquez sur le bouton pour actualiser la liste.
5. Enregistrer et tester
Cliquez sur Save. Ouvrez n'importe quel e-mail, utilisez le menu ThunderAI et exécutez un prompt pour vérifier la connexion.
Conseils
- Les performances dépendent de votre matériel. Une machine moderne avec au moins 16 Go de RAM gérera confortablement des modèles comme
llama3oumistral. Un GPU accélère considérablement le traitement. - Les modèles plus petits (7B paramètres) sont plus rapides mais moins capables ; les modèles plus grands (13B, 70B) produisent de meilleurs résultats mais nécessitent plus de ressources.
- Pour les tâches e-mail,
mistraletllama3sont des choix populaires offrant un bon équilibre entre qualité et vitesse.
Dépannage
« Failed to connect » ou aucune réponse
Vérifiez qu'Ollama est bien en cours d'exécution (ollama list dans un terminal). Vérifiez que l'URL du serveur dans les options ThunderAI correspond à votre configuration Ollama.
Erreur CORS
La variable OLLAMA_ORIGINS n'est pas définie ou Ollama n'a pas été redémarré après la définition. Répétez les étapes ci-dessus, ou utilisez la permission « All URLs » comme solution de contournement.
Liste de modèles vide
Assurez-vous d'avoir téléchargé au moins un modèle avec ollama pull <nomdumodèle> et qu'Ollama est en cours d'exécution.