Zum Hauptinhalt springen

🚧 Probleme mit der Serververbindung

Wir helfen Ihnen gerne bei der Einrichtung und Inbetriebnahme. Unten finden Sie Schritt-für-Schritt-Anleitungen, die auf verschiedene Szenarien zugeschnitten sind, um häufige Verbindungsprobleme mit Ollama und externen Servern wie Hugging Face zu lösen.

🌟 Verbindung zum Ollama-Server

🚀 Zugriff auf Ollama von Open WebUI

Sie haben Schwierigkeiten, sich von Open WebUI mit Ollama zu verbinden? Das liegt möglicherweise daran, dass Ollama nicht auf einer Netzwerkschnittstelle lauscht, die externe Verbindungen zulässt. Lassen Sie uns das in Ordnung bringen.

  1. Ollama so konfigurieren, dass es breit lauscht 🎧: Setzen Sie OLLAMA_HOST auf 0.0.0.0, damit Ollama auf allen Netzwerkschnittstellen lauscht.

  2. Umgebungsvariablen aktualisieren: Stellen Sie sicher, dass OLLAMA_HOST in Ihrer Bereitstellungsumgebung korrekt eingestellt ist.

  3. Ollama neu starten🔄: Ein Neustart ist erforderlich, damit die Änderungen wirksam werden.

💡 Überprüfen Sie nach der Einrichtung, ob Ollama zugänglich ist, indem Sie die WebUI-Oberfläche aufrufen.

Weitere detaillierte Anweisungen zur Konfiguration von Ollama finden Sie in der offiziellen Dokumentation von Ollama.

🐳 Docker-Verbindungsfehler

Wenn Sie einen Verbindungsfehler sehen, wenn Sie versuchen, auf Ollama zuzugreifen, liegt es möglicherweise daran, dass der WebUI-Docker-Container nicht mit dem Ollama-Server auf Ihrem Host kommunizieren kann. Lassen Sie uns das beheben.

  1. Netzwerkeinstellungen anpassen 🛠️: Verwenden Sie das Flag --network=host in Ihrem Docker-Befehl. Dies verbindet Ihren Container direkt mit dem Netzwerk Ihres Hosts.

  2. Port ändern: Denken Sie daran, dass sich der interne Port von 3000 auf 8080 ändert.

Beispiel-Docker-Befehl:

docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main

🔗 Nach der Ausführung des obigen Befehls sollte Ihre WebUI unter https://:8080 verfügbar sein.

🔒 SSL-Verbindungsproblem mit Hugging Face

Ein SSL-Fehler? Es könnte ein Problem mit dem Hugging Face-Server sein. Hier ist, was Sie tun können.

  1. Serverstatus von Hugging Face prüfen: Überprüfen Sie, ob es auf deren Seite eine bekannte Störung oder ein Problem gibt.

  2. Endpunkt wechseln: Wenn Hugging Face nicht verfügbar ist, wechseln Sie den Endpunkt in Ihrem Docker-Befehl.

Beispiel-Docker-Befehl für verbundene Probleme:

docker run -d -p 3000:8080 -e HF_ENDPOINT=https://hf-mirror.com/ --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main

🍏 Podman auf MacOS

Sie verwenden Podman auf MacOS? Hier erfahren Sie, wie Sie die Konnektivität sicherstellen.

  1. Host-Loopback aktivieren: Verwenden Sie --network slirp4netns:allow_host_loopback=true in Ihrem Befehl.

  2. OLLAMA_BASE_URL festlegen: Stellen Sie sicher, dass es auf http://host.containers.internal:11434 zeigt.

Beispiel-Podman-Befehl:

podman run -d --network slirp4netns:allow_host_loopback=true -p 3000:8080 -e OLLAMA_BASE_URL=http://host.containers.internal:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main