"ThunderAI" Einrichtungsanleitung - OpenAI Compatible API
Die Integration mit der OpenAI Compatible API ermöglicht es Ihnen, ThunderAI mit jedem Server zu verbinden, der das OpenAI API-Format unterstützt.
Dies umfasst lokale Server wie LM Studio, gehostete Dienste wie DeepSeek, Grok, Mistral AI, OpenRouter und Perplexity sowie beliebige benutzerdefinierte oder selbst gehostete Endpunkte.
| API-Schlüssel erforderlich | Variiert je nach Dienst |
| Kostenlose Option | Variiert je nach Dienst (lokale Server sind kostenlos) |
| Geeignet für | Flexibilität: lokale Server, alternative Anbieter, benutzerdefinierte Endpunkte |
Vordefinierte Konfigurationen
ThunderAI enthält fertige Voreinstellungen für die beliebtesten OpenAI-kompatiblen Dienste. Wenn Sie einen dieser Dienste verwenden, wählen Sie einfach die Voreinstellung aus und geben Sie nur Ihren API-Schlüssel ein:
| Voreinstellung | Hinweise |
|---|---|
| DeepSeek API | Schnell und kostengünstig, starke Reasoning-Modelle |
| Grok API | Grok-Modelle von xAI |
| Mistral API | Gehostete Modelle von Mistral AI |
| OpenRouter API | Zugriff auf viele Anbieter über einen einzigen API-Schlüssel |
| Perplexity API | Enthält Modelle mit integrierter Websuche |
Einrichtung
1. ThunderAI-Optionen öffnen
Klicken Sie in Thunderbird auf das ThunderAI-Menü und wählen Sie Options, oder gehen Sie zu
Extras → Add-ons und Themes → ThunderAI → Einstellungen.
2. OpenAI Compatible API-Integration auswählen
Wählen Sie im Bereich Connection die Option OpenAI Compatible API aus dem Integrations-Dropdown.
3a. Eine Voreinstellung verwenden
Wenn Ihr Anbieter eine Voreinstellung hat, wählen Sie diese aus der Liste aus. Die API-URL wird automatisch ausgefüllt. Geben Sie Ihren API-Schlüssel ein und springen Sie zu Schritt 5.
3b. Manuelle Konfiguration
Wenn Ihr Anbieter nicht in der Voreinstellungsliste ist, konfigurieren Sie ihn manuell:
- API URL: Geben Sie die Basis-URL Ihres Servers ein. Für LM Studio lokal laufend ist das in der Regel
http://localhost:1234/v1. Bei gehosteten Anbietern prüfen Sie deren Dokumentation. - Remove "v1" from URL: Aktivieren Sie dies, wenn die Dokumentation Ihres Anbieters anweist, die Basis-URL ohne das Segment
/v1zu verwenden.
4. API-Schlüssel eingeben (falls erforderlich)
Lokale Server wie LM Studio erfordern in der Regel keinen API-Schlüssel, Sie können das Feld leer lassen oder einen beliebigen Platzhalterwert eingeben. Gehostete Dienste benötigen einen gültigen Schlüssel.
5. Modell auswählen
Wählen Sie Ihr Modell aus dem Dropdown Model. Verwenden Sie die Schaltfläche, um die Liste zu aktualisieren.
Wenn der Server keinen Modelllist-Endpunkt bereitstellt, aktivieren Sie die Option Set model name manually und geben Sie den Modellnamen gemäß den Angaben Ihres Anbieters ein.
6. Speichern und testen
Klicken Sie auf Save. Öffnen Sie eine beliebige E-Mail, verwenden Sie das ThunderAI-Menü und führen Sie einen Prompt aus, um zu überprüfen, dass alles funktioniert.
LM Studio — Schnellkonfiguration
LM Studio bietet einen lokalen Server mit einer OpenAI-kompatiblen API und einer grafischen Oberfläche zum Herunterladen und Verwalten von Modellen.
- Laden Sie LM Studio von lmstudio.ai herunter und installieren Sie es
- Gehen Sie in LM Studio auf die Registerkarte Local Server und starten Sie den Server
- Laden Sie ein Modell Ihrer Wahl aus dem Modell-Browser von LM Studio herunter
- Setzen Sie in ThunderAI die API-URL auf
http://localhost:1234/v1, lassen Sie den API-Schlüssel leer und wählen Sie Ihr Modell
Tipps
- OpenRouter ist eine hervorragende Option, wenn Sie über einen einzigen API-Schlüssel und ein einziges Abrechnungskonto auf viele verschiedene Modelle (darunter Claude, Gemini und Mistral) zugreifen möchten.
- Bei lokalen Servern hängen die Leistung von Ihrer Hardware ab — lesen Sie die Ollama-Anleitung für Hardware-Tipps.
- Wenn Anfragen mit einem CORS-Fehler fehlschlagen und Sie die richtige Konfiguration nicht am Server vornehmen können, verwenden Sie die optionale Berechtigung „All URLs" in den ThunderAI-Einstellungen als Workaround.
Fehlerbehebung
„Connection refused" bei einem lokalen Server
Stellen Sie sicher, dass der lokale Server (z. B. LM Studio) tatsächlich läuft und die Server-URL in ThunderAI mit dem Port übereinstimmt, auf dem er lauscht.
Fehler „401 Unauthorized"
Prüfen Sie Ihren API-Schlüssel. Für lokale Server ohne Schlüsselpflicht versuchen Sie, einen Dummy-Wert wie none einzugeben. Manche Server lehnen leere Schlüsselfelder ab.
Leere Modellliste
Aktivieren Sie die Option Set model name manually und geben Sie den Modellnamen gemäß den Angaben Ihres Anbieters oder der Server-Dokumentation ein.
Das „v1" in der URL verursacht Fehler
Aktivieren Sie die Option Remove "v1" from URL in den ThunderAI-Einstellungen.