Passer au contenu principal

Mic's

Silence is golden.

Guide de configuration pour "ThunderAI" - Ollama (IA locale)

L'intégration Ollama vous permet d'exécuter des modèles AI localement sur votre propre machine.
Vos e-mails ne quittent jamais votre ordinateur : aucune clé API, aucun service cloud, aucun coût au-delà de votre matériel.

Clé API requiseNon
Option gratuiteOui [Entièrement gratuit, vous utilisez votre matériel]
Privé / Local ?Oui [Tout reste sur votre machine]
Idéal pourUtilisateurs soucieux de la confidentialité, e-mails sensibles, usage hors ligne

Prérequis

  • Ollama installé et en cours d'exécution sur votre machine (ou accessible sur votre réseau local)
  • Au moins un modèle téléchargé dans Ollama
  • Thunderbird avec ThunderAI installé

Installer Ollama et télécharger un modèle

Si vous n'avez pas encore installé Ollama :

  1. Téléchargez-le depuis ollama.com et suivez les instructions d'installation pour votre système d'exploitation
  2. Ouvrez un terminal et téléchargez un modèle, par exemple :
    ollama pull llama3
    Autres bons choix pour les tâches e-mail : mistral, phi3, gemma2
  3. Vérifiez qu'Ollama est en cours d'exécution :
    ollama list

Configuration de CORS

Les extensions Thunderbird s'exécutent dans un environnement sandbox, Ollama doit donc être configuré pour accepter les requêtes provenant des extensions de navigateur.
Vous devez définir la variable d'environnement OLLAMA_ORIGINS sur moz-extension://*.

Pour des configurations CORS plus détaillées, consultez la page d'information CORS d'Ollama.

Configuration

1. Ouvrir les options de ThunderAI

Dans Thunderbird, cliquez sur le menu ThunderAI et sélectionnez Options, ou accédez à
Outils → Modules complémentaires et thèmes → ThunderAI → Préférences.

2. Sélectionner l'intégration Ollama

Dans la section Connection, choisissez Ollama dans le menu déroulant des intégrations.

3. Définir l'URL du serveur

Saisissez l'URL de votre serveur Ollama. La valeur par défaut est :

http://localhost:11434

Si Ollama s'exécute sur une autre machine de votre réseau, remplacez localhost par l'adresse IP de cette machine.

4. Choisir un modèle

Sélectionnez un modèle dans le menu déroulant Model. Cliquez sur le bouton pour actualiser la liste.

5. Enregistrer et tester

Cliquez sur Save. Ouvrez n'importe quel e-mail, utilisez le menu ThunderAI et exécutez un prompt pour vérifier la connexion.

Conseils

  • Les performances dépendent de votre matériel. Une machine moderne avec au moins 16 Go de RAM gérera confortablement des modèles comme llama3 ou mistral. Un GPU accélère considérablement le traitement.
  • Les modèles plus petits (7B paramètres) sont plus rapides mais moins capables ; les modèles plus grands (13B, 70B) produisent de meilleurs résultats mais nécessitent plus de ressources.
  • Pour les tâches e-mail, mistral et llama3 sont des choix populaires offrant un bon équilibre entre qualité et vitesse.

Dépannage

« Failed to connect » ou aucune réponse

Vérifiez qu'Ollama est bien en cours d'exécution (ollama list dans un terminal). Vérifiez que l'URL du serveur dans les options ThunderAI correspond à votre configuration Ollama.

Erreur CORS

La variable OLLAMA_ORIGINS n'est pas définie ou Ollama n'a pas été redémarré après la définition. Répétez les étapes ci-dessus, ou utilisez la permission « All URLs » comme solution de contournement.

Liste de modèles vide

Assurez-vous d'avoir téléchargé au moins un modèle avec ollama pull <nomdumodèle> et qu'Ollama est en cours d'exécution.


Retour aux guides  |  Suivant : OpenAI Compatible API →