Zum Hauptinhalt springen

⏱️ Schnelleinstieg

Gesponsert vonTailscale
Tailscale
Verbinden Sie Self-Hosted AI mit jedem Gerät mit Tailscale
Wichtiger Hinweis zu Benutzerrollen und Datenschutz:
  • Admin-Erstellung: Das erste auf Open WebUI erstellte Konto erhält Administratorrechte und steuert die Benutzerverwaltung und Systemeinstellungen.
  • Benutzerregistrierungen: Nachfolgende Anmeldungen beginnen mit dem Status Ausstehend und erfordern die Genehmigung des Administrators für den Zugriff.
  • Datenschutz und Datensicherheit: Alle Ihre Daten, einschließlich Anmeldedaten, werden lokal auf Ihrem Gerät gespeichert. Open WebUI gewährleistet strikte Vertraulichkeit und keine externen Anfragen für verbesserte Privatsphäre und Sicherheit.
    • Alle Modelle sind standardmäßig privat. Modelle müssen explizit über Gruppen geteilt oder öffentlich gemacht werden. Wenn ein Modell einer Gruppe zugewiesen wird, können nur Mitglieder dieser Gruppe es sehen. Wenn ein Modell öffentlich gemacht wird, kann es jeder auf der Instanz sehen.

Wählen Sie unten Ihre bevorzugte Installationsmethode

  • Docker: Offiziell unterstützt und für die meisten Benutzer empfohlen
  • Python: Geeignet für Umgebungen mit geringen Ressourcen oder für Benutzer, die eine manuelle Einrichtung wünschen
  • Kubernetes: Ideal für Enterprise-Bereitstellungen, die Skalierbarkeit und Orchestrierung erfordern

Schnellstart mit Docker 🐳

Folgen Sie diesen Schritten, um Open WebUI mit Docker zu installieren.

Schritt 1: Ziehen Sie das Open WebUI-Image

Beginnen Sie damit, das neueste Open WebUI Docker-Image vom GitHub Container Registry herunterzuladen.

docker pull ghcr.io/open-webui/open-webui:main

Schritt 2: Führen Sie den Container aus

Führen Sie den Container mit den Standardeinstellungen aus. Dieser Befehl enthält eine Volume-Zuordnung, um eine persistente Datenspeicherung zu gewährleisten.

docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main

Wichtige Flags

  • Volume-Zuordnung (-v open-webui:/app/backend/data): Gewährleistet die persistente Speicherung Ihrer Daten. Dies verhindert Datenverlust zwischen Container-Neustarts.
  • Port-Zuordnung (-p 3000:8080): Macht die WebUI auf Port 3000 Ihres lokalen Rechners verfügbar.

GPU-Unterstützung verwenden

Für Nvidia GPU-Unterstützung fügen Sie --gpus all zum docker run-Befehl hinzu

docker run -d -p 3000:8080 --gpus all -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:cuda

Einzelbenutzermodus (Anmeldung deaktivieren)

Um die Anmeldeseite für eine Einzelbenutzer-Einrichtung zu umgehen, setzen Sie die Umgebungsvariable WEBUI_AUTH auf False

docker run -d -p 3000:8080 -e WEBUI_AUTH=False -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main
Warnung

Sie können nach dieser Änderung nicht mehr zwischen dem Einzelbenutzermodus und dem Mehrkontenmodus wechseln.

Erweiterte Konfiguration: Verbindung zu Ollama auf einem anderen Server herstellen

Um Open WebUI mit einem Ollama-Server auf einem anderen Host zu verbinden, fügen Sie die Umgebungsvariable OLLAMA_BASE_URL hinzu

docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

Greifen Sie auf die WebUI zu

Nachdem der Container läuft, greifen Sie auf Open WebUI unter

https://:3000

Für detaillierte Hilfe zu jedem Docker-Flag siehe Docker-Dokumentation.

Aktualisieren

Um Ihre lokale Docker-Installation auf die neueste Version zu aktualisieren, können Sie entweder Watchtower verwenden oder den Container manuell aktualisieren.

Option 1: Verwendung von Watchtower

Mit Watchtower können Sie den Aktualisierungsprozess automatisieren

docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui

(Ersetzen Sie open-webui durch den Namen Ihres Containers, falls er anders ist.)

Option 2: Manuelle Aktualisierung

  1. Stoppen und entfernen Sie den aktuellen Container

    docker rm -f open-webui
  2. Ziehen Sie die neueste Version herunter

    docker pull ghcr.io/open-webui/open-webui:main
  3. Starten Sie den Container erneut

    docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui ghcr.io/open-webui/open-webui:main

Beide Methoden sorgen dafür, dass Ihre Docker-Instanz aktualisiert und mit dem neuesten Build ausgeführt wird.

Nächste Schritte

Nach der Installation besuchen Sie

Sie sind nun bereit, Open WebUI zu nutzen!

Open WebUI mit Ollama verwenden

Wenn Sie Open WebUI mit Ollama verwenden, lesen Sie unbedingt unsere Anleitung zum Starten mit Ollama, um zu erfahren, wie Sie Ihre Ollama-Instanzen mit Open WebUI verwalten können.

Treten Sie der Community bei

Benötigen Sie Hilfe? Haben Sie Fragen? Treten Sie unserer Community bei

Bleiben Sie über die neuesten Funktionen, Tipps zur Fehlerbehebung und Ankündigungen auf dem Laufenden!