Guida di configurazione per "ThunderAI" - OpenAI Compatible API
L'integrazione con OpenAI Compatible API ti consente di connettere ThunderAI a qualsiasi server che segua il formato API di OpenAI.
Questo include server locali come LM Studio, servizi ospitati come DeepSeek, Grok, Mistral AI, OpenRouter e Perplexity, nonché qualsiasi endpoint personalizzato o self-hosted.
| Chiave API richiesta | Dipende dal servizio |
| Opzione gratuita | Dipende dal servizio (i server locali sono gratuiti) |
| Ideale per | Flessibilità: server locali, provider alternativi, endpoint personalizzati |
Configurazioni predefinite
ThunderAI include preset già pronti per i servizi OpenAI-compatibili più diffusi. Se utilizzi uno di questi, seleziona il preset e inserisci solo la tua chiave API:
| Preset | Note |
|---|---|
| DeepSeek API | Veloce ed economico, modelli di ragionamento avanzati |
| Grok API | Modelli Grok di xAI |
| Mistral API | Modelli ospitati da Mistral AI |
| OpenRouter API | Accedi a molti provider tramite un'unica chiave API |
| Perplexity API | Include modelli con ricerca web integrata |
Configurazione
1. Apri le opzioni di ThunderAI
In Thunderbird, clicca sul menu ThunderAI e seleziona Options, oppure vai su
Strumenti → Componenti aggiuntivi e temi → ThunderAI → Preferenze.
2. Seleziona l'integrazione OpenAI Compatible API
Nella sezione Connection, scegli OpenAI Compatible API dal menu a tendina delle integrazioni.
3a. Usare un preset
Se il tuo provider ha un preset, selezionalo dall'elenco. L'URL API verrà compilato automaticamente. Inserisci la tua chiave API e vai al passaggio 5.
3b. Configurazione manuale
Se il tuo provider non è nell'elenco dei preset, configuralo manualmente:
- API URL: Inserisci l'URL base del tuo server. Per LM Studio in esecuzione in locale, di solito è
http://localhost:1234/v1. Per i provider ospitati, consulta la loro documentazione. - Remove "v1" from URL: Abilitalo se la documentazione del tuo provider indica di usare l'URL base senza il segmento
/v1.
4. Inserisci la tua chiave API (se richiesta)
I server locali come LM Studio di solito non richiedono una chiave API, quindi puoi lasciare il campo vuoto o inserire un valore qualsiasi. I servizi ospitati richiedono una chiave valida.
5. Scegli un modello
Seleziona il tuo modello dal menu a tendina Model. Usa il pulsante per aggiornare l'elenco.
Se il server non espone un endpoint per l'elenco dei modelli, abilita l'opzione Set model name manually e digita il nome del modello come indicato dal tuo provider.
6. Salva e testa
Clicca su Save. Apri una qualsiasi email, usa il menu ThunderAI ed esegui un prompt per verificare che tutto funzioni.
LM Studio — configurazione rapida
LM Studio fornisce un server locale con un'API compatibile con OpenAI e un'interfaccia grafica per scaricare e gestire i modelli.
- Scarica e installa LM Studio da lmstudio.ai
- In LM Studio, vai alla scheda Local Server e avvia il server
- Scarica un modello a tua scelta dal browser di modelli di LM Studio
- In ThunderAI, imposta l'API URL su
http://localhost:1234/v1, lascia la chiave API vuota e seleziona il tuo modello
Suggerimenti
- OpenRouter è un'ottima opzione se vuoi accedere a molti modelli diversi (inclusi Claude, Gemini e Mistral) tramite un'unica chiave API e account di fatturazione.
- Quando usi server locali, le prestazioni dipendono dall'hardware — consulta la guida Ollama per consigli sull'hardware.
- Se le richieste falliscono con un errore CORS e non puoi aggiungere la configurazione corretta sul server, usa il permesso opzionale "All URLs" nelle impostazioni di ThunderAI come soluzione alternativa.
Risoluzione dei problemi
"Connection refused" su un server locale
Assicurati che il server locale (ad es. LM Studio) sia effettivamente in esecuzione e che l'URL del server in ThunderAI corrisponda alla porta su cui è in ascolto.
Errore "401 Unauthorized"
Controlla la tua chiave API. Per i server locali che non richiedono una chiave, prova a inserire un valore qualsiasi come none. Alcuni server rifiutano i campi chiave vuoti.
Elenco modelli vuoto
Abilita l'opzione Set model name manually e digita il nome del modello come indicato dal tuo provider o dalla documentazione del server.
Il "v1" nell'URL causa errori
Abilita l'opzione Remove "v1" from URL nelle impostazioni di ThunderAI.