Zum hauptinhalt springen

Mic's

Silence is golden.

"ThunderAI" Einrichtungsanleitung - OpenAI Compatible API

Die Integration mit der OpenAI Compatible API ermöglicht es Ihnen, ThunderAI mit jedem Server zu verbinden, der das OpenAI API-Format unterstützt.
Dies umfasst lokale Server wie LM Studio, gehostete Dienste wie DeepSeek, Grok, Mistral AI, OpenRouter und Perplexity sowie beliebige benutzerdefinierte oder selbst gehostete Endpunkte.

API-Schlüssel erforderlichVariiert je nach Dienst
Kostenlose OptionVariiert je nach Dienst (lokale Server sind kostenlos)
Geeignet fürFlexibilität: lokale Server, alternative Anbieter, benutzerdefinierte Endpunkte

Vordefinierte Konfigurationen

ThunderAI enthält fertige Voreinstellungen für die beliebtesten OpenAI-kompatiblen Dienste. Wenn Sie einen dieser Dienste verwenden, wählen Sie einfach die Voreinstellung aus und geben Sie nur Ihren API-Schlüssel ein:

VoreinstellungHinweise
DeepSeek APISchnell und kostengünstig, starke Reasoning-Modelle
Grok APIGrok-Modelle von xAI
Mistral APIGehostete Modelle von Mistral AI
OpenRouter APIZugriff auf viele Anbieter über einen einzigen API-Schlüssel
Perplexity APIEnthält Modelle mit integrierter Websuche

Einrichtung

1. ThunderAI-Optionen öffnen

Klicken Sie in Thunderbird auf das ThunderAI-Menü und wählen Sie Options, oder gehen Sie zu
Extras → Add-ons und Themes → ThunderAI → Einstellungen.

2. OpenAI Compatible API-Integration auswählen

Wählen Sie im Bereich Connection die Option OpenAI Compatible API aus dem Integrations-Dropdown.

3a. Eine Voreinstellung verwenden

Wenn Ihr Anbieter eine Voreinstellung hat, wählen Sie diese aus der Liste aus. Die API-URL wird automatisch ausgefüllt. Geben Sie Ihren API-Schlüssel ein und springen Sie zu Schritt 5.

3b. Manuelle Konfiguration

Wenn Ihr Anbieter nicht in der Voreinstellungsliste ist, konfigurieren Sie ihn manuell:

  • API URL: Geben Sie die Basis-URL Ihres Servers ein. Für LM Studio lokal laufend ist das in der Regel http://localhost:1234/v1. Bei gehosteten Anbietern prüfen Sie deren Dokumentation.
  • Remove "v1" from URL: Aktivieren Sie dies, wenn die Dokumentation Ihres Anbieters anweist, die Basis-URL ohne das Segment /v1 zu verwenden.

4. API-Schlüssel eingeben (falls erforderlich)

Lokale Server wie LM Studio erfordern in der Regel keinen API-Schlüssel, Sie können das Feld leer lassen oder einen beliebigen Platzhalterwert eingeben. Gehostete Dienste benötigen einen gültigen Schlüssel.

5. Modell auswählen

Wählen Sie Ihr Modell aus dem Dropdown Model. Verwenden Sie die Schaltfläche, um die Liste zu aktualisieren.

Wenn der Server keinen Modelllist-Endpunkt bereitstellt, aktivieren Sie die Option Set model name manually und geben Sie den Modellnamen gemäß den Angaben Ihres Anbieters ein.

6. Speichern und testen

Klicken Sie auf Save. Öffnen Sie eine beliebige E-Mail, verwenden Sie das ThunderAI-Menü und führen Sie einen Prompt aus, um zu überprüfen, dass alles funktioniert.

LM Studio — Schnellkonfiguration

LM Studio bietet einen lokalen Server mit einer OpenAI-kompatiblen API und einer grafischen Oberfläche zum Herunterladen und Verwalten von Modellen.

  1. Laden Sie LM Studio von lmstudio.ai herunter und installieren Sie es
  2. Gehen Sie in LM Studio auf die Registerkarte Local Server und starten Sie den Server
  3. Laden Sie ein Modell Ihrer Wahl aus dem Modell-Browser von LM Studio herunter
  4. Setzen Sie in ThunderAI die API-URL auf http://localhost:1234/v1, lassen Sie den API-Schlüssel leer und wählen Sie Ihr Modell

Tipps

  • OpenRouter ist eine hervorragende Option, wenn Sie über einen einzigen API-Schlüssel und ein einziges Abrechnungskonto auf viele verschiedene Modelle (darunter Claude, Gemini und Mistral) zugreifen möchten.
  • Bei lokalen Servern hängen die Leistung von Ihrer Hardware ab — lesen Sie die Ollama-Anleitung für Hardware-Tipps.
  • Wenn Anfragen mit einem CORS-Fehler fehlschlagen und Sie die richtige Konfiguration nicht am Server vornehmen können, verwenden Sie die optionale Berechtigung „All URLs" in den ThunderAI-Einstellungen als Workaround.

Fehlerbehebung

„Connection refused" bei einem lokalen Server

Stellen Sie sicher, dass der lokale Server (z. B. LM Studio) tatsächlich läuft und die Server-URL in ThunderAI mit dem Port übereinstimmt, auf dem er lauscht.

Fehler „401 Unauthorized"

Prüfen Sie Ihren API-Schlüssel. Für lokale Server ohne Schlüsselpflicht versuchen Sie, einen Dummy-Wert wie none einzugeben. Manche Server lehnen leere Schlüsselfelder ab.

Leere Modellliste

Aktivieren Sie die Option Set model name manually und geben Sie den Modellnamen gemäß den Angaben Ihres Anbieters oder der Server-Dokumentation ein.

Das „v1" in der URL verursacht Fehler

Aktivieren Sie die Option Remove "v1" from URL in den ThunderAI-Einstellungen.


Zurück zu den Anleitungen