🚧 Probleme mit der Serververbindung
Wir helfen Ihnen gerne bei der Einrichtung und Inbetriebnahme. Unten finden Sie Schritt-für-Schritt-Anleitungen, die auf verschiedene Szenarien zugeschnitten sind, um häufige Verbindungsprobleme mit Ollama und externen Servern wie Hugging Face zu lösen.
🌟 Verbindung zum Ollama-Server
🚀 Zugriff auf Ollama von Open WebUI
Sie haben Schwierigkeiten, sich von Open WebUI mit Ollama zu verbinden? Das liegt möglicherweise daran, dass Ollama nicht auf einer Netzwerkschnittstelle lauscht, die externe Verbindungen zulässt. Lassen Sie uns das in Ordnung bringen.
-
Ollama so konfigurieren, dass es breit lauscht 🎧: Setzen Sie
OLLAMA_HOSTauf0.0.0.0, damit Ollama auf allen Netzwerkschnittstellen lauscht. -
Umgebungsvariablen aktualisieren: Stellen Sie sicher, dass
OLLAMA_HOSTin Ihrer Bereitstellungsumgebung korrekt eingestellt ist. -
Ollama neu starten🔄: Ein Neustart ist erforderlich, damit die Änderungen wirksam werden.
💡 Überprüfen Sie nach der Einrichtung, ob Ollama zugänglich ist, indem Sie die WebUI-Oberfläche aufrufen.
Weitere detaillierte Anweisungen zur Konfiguration von Ollama finden Sie in der offiziellen Dokumentation von Ollama.
🐳 Docker-Verbindungsfehler
Wenn Sie einen Verbindungsfehler sehen, wenn Sie versuchen, auf Ollama zuzugreifen, liegt es möglicherweise daran, dass der WebUI-Docker-Container nicht mit dem Ollama-Server auf Ihrem Host kommunizieren kann. Lassen Sie uns das beheben.
-
Netzwerkeinstellungen anpassen 🛠️: Verwenden Sie das Flag
--network=hostin Ihrem Docker-Befehl. Dies verbindet Ihren Container direkt mit dem Netzwerk Ihres Hosts. -
Port ändern: Denken Sie daran, dass sich der interne Port von 3000 auf 8080 ändert.
Beispiel-Docker-Befehl:
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
🔗 Nach der Ausführung des obigen Befehls sollte Ihre WebUI unter https://:8080 verfügbar sein.
🔒 SSL-Verbindungsproblem mit Hugging Face
Ein SSL-Fehler? Es könnte ein Problem mit dem Hugging Face-Server sein. Hier ist, was Sie tun können.
-
Serverstatus von Hugging Face prüfen: Überprüfen Sie, ob es auf deren Seite eine bekannte Störung oder ein Problem gibt.
-
Endpunkt wechseln: Wenn Hugging Face nicht verfügbar ist, wechseln Sie den Endpunkt in Ihrem Docker-Befehl.
Beispiel-Docker-Befehl für verbundene Probleme:
docker run -d -p 3000:8080 -e HF_ENDPOINT=https://hf-mirror.com/ --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
🍏 Podman auf MacOS
Sie verwenden Podman auf MacOS? Hier erfahren Sie, wie Sie die Konnektivität sicherstellen.
-
Host-Loopback aktivieren: Verwenden Sie
--network slirp4netns:allow_host_loopback=truein Ihrem Befehl. -
OLLAMA_BASE_URL festlegen: Stellen Sie sicher, dass es auf
http://host.containers.internal:11434zeigt.
Beispiel-Podman-Befehl:
podman run -d --network slirp4netns:allow_host_loopback=true -p 3000:8080 -e OLLAMA_BASE_URL=http://host.containers.internal:11434 -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main