Zum Hauptinhalt springen

🌐 Starten mit OpenAI-kompatiblen Servern

Übersicht

Open WebUI ist nicht nur für OpenAI/Ollama/Llama.cpp gedacht – Sie können jeden Server verbinden, der die OpenAI-kompatible API implementiert, sei er lokal oder remote. Dies ist perfekt, wenn Sie verschiedene Sprachmodelle ausführen möchten oder bereits ein bevorzugtes Backend oder Ökosystem haben. Diese Anleitung zeigt Ihnen, wie Sie:

  • Einen OpenAI-kompatiblen Server einrichten (mit einigen beliebten Optionen)
  • Diesen mit Open WebUI verbinden
  • Sofort mit dem Chatten beginnen

Schritt 1: Einen OpenAI-kompatiblen Server auswählen

Es gibt viele Server und Tools, die eine OpenAI-kompatible API bereitstellen. Hier sind einige der beliebtesten:

  • Llama.cpp: Extrem effizient, läuft auf CPU und GPU
  • Ollama: Super benutzerfreundlich und plattformübergreifend
  • LM Studio: Umfangreiche Desktop-App für Windows/Mac/Linux
  • Lemonade: Schnelles ONNX-basiertes Backend mit NPU/iGPU-Beschleunigung

Wählen Sie, was am besten zu Ihrem Workflow passt!


🍋 Mit Lemonade starten

Lemonade ist ein Plug-and-Play ONNX-basierter, OpenAI-kompatibler Server. Hier ist, wie Sie ihn unter Windows ausprobieren können:

  1. Laden Sie die neueste .exe-Datei herunter

  2. Führen Sie Lemonade_Server_Installer.exe aus

  3. Installieren und laden Sie ein Modell mit dem Lemonade-Installer herunter

  4. Sobald er läuft, wird Ihr API-Endpunkt lauten:

    https://:8000/api/v0

Lemonade Server

Weitere Details finden Sie in deren Dokumentation.


Schritt 2: Ihren Server mit Open WebUI verbinden

  1. Öffnen Sie Open WebUI in Ihrem Browser.

  2. Gehen Sie zu ⚙️ Admin-EinstellungenVerbindungenOpenAI-Verbindungen.

  3. Klicken Sie auf ➕ Verbindung hinzufügen.

    • URL: Verwenden Sie den API-Endpunkt Ihres Servers (z. B. https://:11434/v1 für Ollama oder die Adresse Ihres eigenen Llama.cpp-Servers).
    • API-Schlüssel: Leer lassen, es sei denn, er ist erforderlich.
  4. Klicken Sie auf Speichern.

Tipp: Wenn Sie Open WebUI in Docker ausführen und Ihr Modellserver auf Ihrem Host-Computer läuft, verwenden Sie http://host.docker.internal:<ihr-port>/v1.

Für Lemonade: Verwenden Sie beim Hinzufügen von Lemonade https://:8000/api/v0 als URL.

Lemonade Connection


Schritt 3: Mit dem Chatten beginnen!

Wählen Sie das Modell Ihres verbundenen Servers im Chat-Menü aus und legen Sie los!

Das war's! Egal, ob Sie Llama.cpp, Ollama, LM Studio oder Lemonade wählen, Sie können ganz einfach experimentieren und mehrere Modellserver verwalten – alles in Open WebUI.


🚀 Viel Spaß beim Aufbau Ihres perfekten lokalen KI-Setups!