Guida di configurazione per "ThunderAI" - Ollama (AI locale)
L'integrazione con Ollama ti permette di eseguire modelli AI localmente sul tuo computer.
Le tue email non lasciano mai il tuo dispositivo: nessuna chiave API, nessun servizio cloud, nessun costo oltre all'hardware.
| Chiave API richiesta | No |
| Opzione gratuita | Sì [Completamente gratuito, utilizzi il tuo hardware] |
| Privato / Locale? | Sì [Tutto rimane sul tuo computer] |
| Ideale per | Utenti attenti alla privacy, email sensibili, uso offline |
Prerequisiti
- Ollama installato e in esecuzione sul tuo computer (o accessibile sulla tua rete locale)
- Almeno un modello scaricato in Ollama
- Thunderbird con ThunderAI installato
Installazione di Ollama e download di un modello
Se non hai ancora installato Ollama:
- Scaricalo da ollama.com e segui le istruzioni di installazione per il tuo sistema operativo
- Apri un terminale e scarica un modello, ad esempio:
ollama pull llama3
Altre buone opzioni per le attività email:mistral,phi3,gemma2 - Verifica che Ollama sia in esecuzione:
ollama list
Configurazione di CORS
Le estensioni Thunderbird vengono eseguite in un ambiente isolato, quindi Ollama deve essere configurato per accettare richieste dalle estensioni del browser.
È necessario impostare la variabile d'ambiente OLLAMA_ORIGINS su moz-extension://*.
Per configurazioni CORS più dettagliate, consulta la pagina informativa su Ollama e CORS.
Configurazione
1. Apri le opzioni di ThunderAI
In Thunderbird, clicca sul menu ThunderAI e seleziona Options, oppure vai su
Strumenti → Componenti aggiuntivi e temi → ThunderAI → Preferenze.
2. Seleziona l'integrazione Ollama
Nella sezione Connection, scegli Ollama dal menu a tendina delle integrazioni.
3. Imposta l'URL del server
Inserisci l'URL del tuo server Ollama. Il valore predefinito è:
http://localhost:11434
Se Ollama è in esecuzione su un altro computer della tua rete, sostituisci localhost con l'indirizzo IP di quel computer.
4. Scegli un modello
Seleziona un modello dal menu a tendina Model. Clicca sul pulsante per aggiornare l'elenco.
5. Salva e testa
Clicca su Save. Apri una qualsiasi email, usa il menu ThunderAI ed esegui un prompt per verificare la connessione.
Suggerimenti
- Le prestazioni dipendono dall'hardware. Un computer moderno con almeno 16 GB di RAM gestirà comodamente modelli come
llama3omistral. Una GPU accelera notevolmente il processo. - I modelli più piccoli (7B parametri) sono più veloci ma meno capaci; i modelli più grandi (13B, 70B) producono risultati migliori ma richiedono più risorse.
- Per le attività email,
mistralellama3sono scelte popolari che offrono un buon equilibrio tra qualità e velocità.
Risoluzione dei problemi
"Failed to connect" o nessuna risposta
Verifica che Ollama sia effettivamente in esecuzione (ollama list in un terminale). Controlla che l'URL del server nelle opzioni di ThunderAI corrisponda alla configurazione di Ollama.
Errore CORS
La variabile OLLAMA_ORIGINS non è impostata oppure Ollama non è stato riavviato dopo averla impostata. Ripeti i passaggi precedenti, oppure usa il permesso "All URLs" come soluzione alternativa.
Elenco modelli vuoto
Assicurati di aver scaricato almeno un modello con ollama pull <nomemodello> e che Ollama sia in esecuzione.