Skip to main content

Mic's

Silence is golden.

Guida di configurazione per "ThunderAI" - OpenAI Compatible API

L'integrazione con OpenAI Compatible API ti consente di connettere ThunderAI a qualsiasi server che segua il formato API di OpenAI.
Questo include server locali come LM Studio, servizi ospitati come DeepSeek, Grok, Mistral AI, OpenRouter e Perplexity, nonché qualsiasi endpoint personalizzato o self-hosted.

Chiave API richiestaDipende dal servizio
Opzione gratuitaDipende dal servizio (i server locali sono gratuiti)
Ideale perFlessibilità: server locali, provider alternativi, endpoint personalizzati

Configurazioni predefinite

ThunderAI include preset già pronti per i servizi OpenAI-compatibili più diffusi. Se utilizzi uno di questi, seleziona il preset e inserisci solo la tua chiave API:

PresetNote
DeepSeek APIVeloce ed economico, modelli di ragionamento avanzati
Grok APIModelli Grok di xAI
Mistral APIModelli ospitati da Mistral AI
OpenRouter APIAccedi a molti provider tramite un'unica chiave API
Perplexity APIInclude modelli con ricerca web integrata

Configurazione

1. Apri le opzioni di ThunderAI

In Thunderbird, clicca sul menu ThunderAI e seleziona Options, oppure vai su
Strumenti → Componenti aggiuntivi e temi → ThunderAI → Preferenze.

2. Seleziona l'integrazione OpenAI Compatible API

Nella sezione Connection, scegli OpenAI Compatible API dal menu a tendina delle integrazioni.

3a. Usare un preset

Se il tuo provider ha un preset, selezionalo dall'elenco. L'URL API verrà compilato automaticamente. Inserisci la tua chiave API e vai al passaggio 5.

3b. Configurazione manuale

Se il tuo provider non è nell'elenco dei preset, configuralo manualmente:

  • API URL: Inserisci l'URL base del tuo server. Per LM Studio in esecuzione in locale, di solito è http://localhost:1234/v1. Per i provider ospitati, consulta la loro documentazione.
  • Remove "v1" from URL: Abilitalo se la documentazione del tuo provider indica di usare l'URL base senza il segmento /v1.

4. Inserisci la tua chiave API (se richiesta)

I server locali come LM Studio di solito non richiedono una chiave API, quindi puoi lasciare il campo vuoto o inserire un valore qualsiasi. I servizi ospitati richiedono una chiave valida.

5. Scegli un modello

Seleziona il tuo modello dal menu a tendina Model. Usa il pulsante per aggiornare l'elenco.

Se il server non espone un endpoint per l'elenco dei modelli, abilita l'opzione Set model name manually e digita il nome del modello come indicato dal tuo provider.

6. Salva e testa

Clicca su Save. Apri una qualsiasi email, usa il menu ThunderAI ed esegui un prompt per verificare che tutto funzioni.

LM Studio — configurazione rapida

LM Studio fornisce un server locale con un'API compatibile con OpenAI e un'interfaccia grafica per scaricare e gestire i modelli.

  1. Scarica e installa LM Studio da lmstudio.ai
  2. In LM Studio, vai alla scheda Local Server e avvia il server
  3. Scarica un modello a tua scelta dal browser di modelli di LM Studio
  4. In ThunderAI, imposta l'API URL su http://localhost:1234/v1, lascia la chiave API vuota e seleziona il tuo modello

Suggerimenti

  • OpenRouter è un'ottima opzione se vuoi accedere a molti modelli diversi (inclusi Claude, Gemini e Mistral) tramite un'unica chiave API e account di fatturazione.
  • Quando usi server locali, le prestazioni dipendono dall'hardware — consulta la guida Ollama per consigli sull'hardware.
  • Se le richieste falliscono con un errore CORS e non puoi aggiungere la configurazione corretta sul server, usa il permesso opzionale "All URLs" nelle impostazioni di ThunderAI come soluzione alternativa.

Risoluzione dei problemi

"Connection refused" su un server locale

Assicurati che il server locale (ad es. LM Studio) sia effettivamente in esecuzione e che l'URL del server in ThunderAI corrisponda alla porta su cui è in ascolto.

Errore "401 Unauthorized"

Controlla la tua chiave API. Per i server locali che non richiedono una chiave, prova a inserire un valore qualsiasi come none. Alcuni server rifiutano i campi chiave vuoti.

Elenco modelli vuoto

Abilita l'opzione Set model name manually e digita il nome del modello come indicato dal tuo provider o dalla documentazione del server.

Il "v1" nell'URL causa errori

Abilita l'opzione Remove "v1" from URL nelle impostazioni di ThunderAI.


Torna alle guide