Guide de configuration pour "ThunderAI" - OpenAI Compatible API
L'intégration OpenAI Compatible API vous permet de connecter ThunderAI à n'importe quel serveur suivant le format API d'OpenAI.
Cela inclut les serveurs locaux comme LM Studio, les services hébergés comme DeepSeek, Grok, Mistral AI, OpenRouter et Perplexity, ainsi que tout endpoint personnalisé ou auto-hébergé.
| Clé API requise | Selon le service |
| Option gratuite | Selon le service (les serveurs locaux sont gratuits) |
| Idéal pour | Flexibilité : serveurs locaux, fournisseurs alternatifs, endpoints personnalisés |
Configurations prédéfinies
ThunderAI inclut des préréglages prêts à l'emploi pour les services OpenAI-compatibles les plus populaires. Si vous utilisez l'un d'eux, sélectionnez le préréglage et fournissez uniquement votre clé API :
| Préréglage | Notes |
|---|---|
| DeepSeek API | Rapide et économique, modèles de raisonnement avancés |
| Grok API | Modèles Grok de xAI |
| Mistral API | Modèles hébergés par Mistral AI |
| OpenRouter API | Accédez à de nombreux fournisseurs via une seule clé API |
| Perplexity API | Inclut des modèles avec recherche web intégrée |
Configuration
1. Ouvrir les options de ThunderAI
Dans Thunderbird, cliquez sur le menu ThunderAI et sélectionnez Options, ou accédez à
Outils → Modules complémentaires et thèmes → ThunderAI → Préférences.
2. Sélectionner l'intégration OpenAI Compatible API
Dans la section Connection, choisissez OpenAI Compatible API dans le menu déroulant des intégrations.
3a. Utiliser un préréglage
Si votre fournisseur dispose d'un préréglage, sélectionnez-le dans la liste. L'URL de l'API sera renseignée automatiquement. Saisissez votre clé API et passez à l'étape 5.
3b. Configuration manuelle
Si votre fournisseur n'est pas dans la liste des préréglages, configurez-le manuellement :
- API URL : Saisissez l'URL de base de votre serveur. Pour LM Studio en local, c'est généralement
http://localhost:1234/v1. Pour les fournisseurs hébergés, consultez leur documentation. - Remove "v1" from URL : Activez cette option si la documentation de votre fournisseur indique d'utiliser l'URL de base sans le segment
/v1.
4. Saisir votre clé API (si requise)
Les serveurs locaux comme LM Studio ne requièrent généralement pas de clé API ; vous pouvez laisser ce champ vide ou saisir n'importe quelle valeur. Les services hébergés nécessiteront une clé valide.
5. Choisir un modèle
Sélectionnez votre modèle dans le menu déroulant Model. Utilisez le bouton pour actualiser la liste.
Si le serveur n'expose pas d'endpoint pour la liste des modèles, activez l'option Set model name manually et saisissez le nom du modèle tel qu'indiqué par votre fournisseur.
6. Enregistrer et tester
Cliquez sur Save. Ouvrez n'importe quel e-mail, utilisez le menu ThunderAI et exécutez un prompt pour vérifier que tout fonctionne.
LM Studio — configuration rapide
LM Studio fournit un serveur local avec une API compatible OpenAI et une interface graphique pour télécharger et gérer des modèles.
- Téléchargez et installez LM Studio depuis lmstudio.ai
- Dans LM Studio, accédez à l'onglet Local Server et démarrez le serveur
- Téléchargez un modèle de votre choix depuis le navigateur de modèles de LM Studio
- Dans ThunderAI, définissez l'API URL sur
http://localhost:1234/v1, laissez la clé API vide et sélectionnez votre modèle
Conseils
- OpenRouter est une excellente option si vous souhaitez accéder à de nombreux modèles différents (dont Claude, Gemini et Mistral) via une seule clé API et un seul compte de facturation.
- Avec les serveurs locaux, les performances dépendent de votre matériel — consultez le guide Ollama pour des conseils matériels.
- Si les requêtes échouent avec une erreur CORS et que vous ne pouvez pas ajouter la configuration adéquate sur le serveur, utilisez la permission optionnelle « All URLs » dans les paramètres ThunderAI comme solution de contournement.
Dépannage
« Connection refused » sur un serveur local
Assurez-vous que le serveur local (ex. : LM Studio) est bien en cours d'exécution et que l'URL du serveur dans ThunderAI correspond au port sur lequel il écoute.
Erreur « 401 Unauthorized »
Vérifiez votre clé API. Pour les serveurs locaux ne nécessitant pas de clé, essayez de saisir une valeur fictive comme none. Certains serveurs refusent les champs de clé vides.
Liste de modèles vide
Activez l'option Set model name manually et saisissez le nom du modèle tel qu'indiqué par votre fournisseur ou la documentation du serveur.
Le « v1 » dans l'URL provoque des erreurs
Activez l'option Remove "v1" from URL dans les paramètres ThunderAI.