Skip to main content

Mic's

Silence is golden.

Guida di configurazione per "ThunderAI" - Ollama (AI locale)

L'integrazione con Ollama ti permette di eseguire modelli AI localmente sul tuo computer.
Le tue email non lasciano mai il tuo dispositivo: nessuna chiave API, nessun servizio cloud, nessun costo oltre all'hardware.

Chiave API richiestaNo
Opzione gratuitaSì [Completamente gratuito, utilizzi il tuo hardware]
Privato / Locale?Sì [Tutto rimane sul tuo computer]
Ideale perUtenti attenti alla privacy, email sensibili, uso offline

Prerequisiti

  • Ollama installato e in esecuzione sul tuo computer (o accessibile sulla tua rete locale)
  • Almeno un modello scaricato in Ollama
  • Thunderbird con ThunderAI installato

Installazione di Ollama e download di un modello

Se non hai ancora installato Ollama:

  1. Scaricalo da ollama.com e segui le istruzioni di installazione per il tuo sistema operativo
  2. Apri un terminale e scarica un modello, ad esempio:
    ollama pull llama3
    Altre buone opzioni per le attività email: mistral, phi3, gemma2
  3. Verifica che Ollama sia in esecuzione:
    ollama list

Configurazione di CORS

Le estensioni Thunderbird vengono eseguite in un ambiente isolato, quindi Ollama deve essere configurato per accettare richieste dalle estensioni del browser.
È necessario impostare la variabile d'ambiente OLLAMA_ORIGINS su moz-extension://*.

Per configurazioni CORS più dettagliate, consulta la pagina informativa su Ollama e CORS.

Configurazione

1. Apri le opzioni di ThunderAI

In Thunderbird, clicca sul menu ThunderAI e seleziona Options, oppure vai su
Strumenti → Componenti aggiuntivi e temi → ThunderAI → Preferenze.

2. Seleziona l'integrazione Ollama

Nella sezione Connection, scegli Ollama dal menu a tendina delle integrazioni.

3. Imposta l'URL del server

Inserisci l'URL del tuo server Ollama. Il valore predefinito è:

http://localhost:11434

Se Ollama è in esecuzione su un altro computer della tua rete, sostituisci localhost con l'indirizzo IP di quel computer.

4. Scegli un modello

Seleziona un modello dal menu a tendina Model. Clicca sul pulsante per aggiornare l'elenco.

5. Salva e testa

Clicca su Save. Apri una qualsiasi email, usa il menu ThunderAI ed esegui un prompt per verificare la connessione.

Suggerimenti

  • Le prestazioni dipendono dall'hardware. Un computer moderno con almeno 16 GB di RAM gestirà comodamente modelli come llama3 o mistral. Una GPU accelera notevolmente il processo.
  • I modelli più piccoli (7B parametri) sono più veloci ma meno capaci; i modelli più grandi (13B, 70B) producono risultati migliori ma richiedono più risorse.
  • Per le attività email, mistral e llama3 sono scelte popolari che offrono un buon equilibrio tra qualità e velocità.

Risoluzione dei problemi

"Failed to connect" o nessuna risposta

Verifica che Ollama sia effettivamente in esecuzione (ollama list in un terminale). Controlla che l'URL del server nelle opzioni di ThunderAI corrisponda alla configurazione di Ollama.

Errore CORS

La variabile OLLAMA_ORIGINS non è impostata oppure Ollama non è stato riavviato dopo averla impostata. Ripeti i passaggi precedenti, oppure usa il permesso "All URLs" come soluzione alternativa.

Elenco modelli vuoto

Assicurati di aver scaricato almeno un modello con ollama pull <nomemodello> e che Ollama sia in esecuzione.


Torna alle guide  |  Avanti: OpenAI Compatible API →