⭐ Funktionen
Key Features of Open WebUI ⭐
-
🚀 Mühelose Einrichtung: Installieren Sie nahtlos über Docker, Kubernetes, Podman, Helm Charts (
kubectl,kustomize,podmanoderhelm) für ein problemloses Erlebnis mit Unterstützung sowohl für das:ollamaImage mit gebündeltem Ollama als auch für:cudamit CUDA-Unterstützung. -
🛠️ Geführte Ersteinrichtung: Schließen Sie den Einrichtungsprozess klar ab, einschließlich einer expliziten Angabe zur Erstellung eines Admin-Kontos während der Ersteinrichtung.
-
🤝 OpenAI API-Integration: Integrieren Sie mühelos OpenAI-kompatible APIs für vielseitige Konversationen neben Ollama-Modellen. Die OpenAI API-URL kann angepasst werden, um Open WebUI nahtlos in verschiedene Drittanbieteranwendungen zu integrieren.
-
🛡️ Granulare Berechtigungen und Benutzergruppen: Indem wir Administratoren die Erstellung detaillierter Benutzerrollen, Benutzergruppen und Berechtigungen für den gesamten Workspace ermöglichen, gewährleisten wir eine sichere Benutzerumgebung für alle beteiligten Benutzer. Diese Granularität erhöht nicht nur die Sicherheit, sondern ermöglicht auch angepasste Benutzererlebnisse und fördert ein Gefühl der Eigenverantwortung und Verantwortung bei den Benutzern.
-
📱 Responsives Design: Genießen Sie ein nahtloses Erlebnis auf Desktop-PCs, Laptops und Mobilgeräten.
-
📱 Progressive Web App für Mobilgeräte: Genießen Sie eine native Progressive Web App-Erfahrung auf Ihrem Mobilgerät mit Offline-Zugriff über
localhostoder eine persönliche Domain und einer reibungslosen Benutzeroberfläche. Damit unsere PWA auf Ihrem Gerät installiert werden kann, muss sie in einem sicheren Kontext bereitgestellt werden. Dies bedeutet normalerweise, dass sie über HTTPS bereitgestellt werden muss.Info- Für die Einrichtung einer PWA benötigen Sie Kenntnisse in Technologien wie Linux, Docker und Reverse-Proxies wie
Nginx,CaddyoderTraefik. Die Verwendung dieser Tools kann dazu beitragen, den Prozess der Erstellung und Bereitstellung einer maßgeschneiderten PWA zu optimieren. Obwohl keine „Ein-Klick-Installation“ verfügbar ist und Ihre Option zur sicheren Bereitstellung Ihrer Open WebUI-Instanz über HTTPS Benutzererfahrung erfordert, können diese Ressourcen die Erstellung und Bereitstellung einer für Ihre Bedürfnisse zugeschnittenen PWA erleichtern.
- Für die Einrichtung einer PWA benötigen Sie Kenntnisse in Technologien wie Linux, Docker und Reverse-Proxies wie
-
✒️🔢 Vollständige Markdown- und LaTeX-Unterstützung: Verbessern Sie Ihre LLM-Erfahrung mit umfassenden Markdown-, LaTex- und Rich-Text-Funktionen für eine angereicherte Interaktion.
-
🧩 Model Builder: Erstellen Sie ganz einfach benutzerdefinierte Modelle aus Basis-Ollama-Modellen direkt aus Open WebUI. Erstellen und fügen Sie benutzerdefinierte Charaktere und Agenten hinzu, passen Sie Modellelemente an und importieren Sie Modelle mühelos über die Open WebUI Community-Integration.
-
📚 Lokale und Remote RAG-Integration: Tauchen Sie ein in die Zukunft von Chat-Interaktionen und erkunden Sie Ihre Dokumente mit unserer hochmodernen Retrieval Augmented Generation (RAG)-Technologie innerhalb Ihrer Chats. Dokumente können in den
Documents-Tab des Workspaces geladen werden, danach können sie über das Pfundzeichen [#] vor einer Abfrage abgerufen oder indem Sie die Eingabeaufforderung mit dem Pfundzeichen [#] gefolgt von einer URL für die Integration von Webinhalten starten. -
📄 Dokumentenextraktion: Extrahieren Sie Text und Daten aus verschiedenen Dokumentenformaten, darunter PDFs, Word-Dokumente, Excel-Tabellen, PowerPoint-Präsentationen und mehr. Unsere fortschrittlichen Dokumentenverarbeitungsfunktionen ermöglichen eine nahtlose Integration in Ihre Wissensbasis und ermöglichen die genaue Abfrage und Generierung von Informationen aus komplexen Dokumenten unter Beibehaltung ihrer Struktur und Formatierung.
-
🔍 Websuche für RAG: Sie können Websuchen mit einer Auswahl verschiedener Suchanbieter durchführen und die Ergebnisse direkt in Ihre lokale Retrieval Augmented Generation (RAG)-Erfahrung einfügen.
-
🌐 Web-Browsing-Fähigkeiten: Integrieren Sie Websites nahtlos in Ihre Chat-Erfahrung, indem Sie den
#-Befehl gefolgt von einer URL verwenden. Diese Funktion ermöglicht die Einbeziehung von Webinhalten direkt in Ihre Gespräche und erweitert so die Reichhaltigkeit und Tiefe Ihrer Interaktionen. -
🎨 Bildgenerierungs-Integration: Integrieren Sie nahtlos Bildgenerierungsfunktionen, um Ihre Chat-Erfahrung mit dynamischen visuellen Inhalten anzureichern.
-
⚙️ Gleichzeitige Modellnutzung: Interagieren Sie mühelos mit mehreren Modellen gleichzeitig und nutzen Sie deren einzigartige Stärken für optimale Antworten. Nutzen Sie eine vielfältige Auswahl an Modellmodalitäten parallel, um Ihre Erfahrung zu verbessern.
-
🔐 Rollenbasierte Zugriffskontrolle (RBAC): Sorgen Sie für sicheren Zugriff mit eingeschränkten Berechtigungen. Nur autorisierte Personen können auf Ihr Ollama zugreifen, während die Rechte zur Modellerstellung und zum Herunterladen ausschließlich Administratoren vorbehalten sind.
-
🌐🌍 Mehrsprachige Unterstützung: Erleben Sie Open WebUI in Ihrer bevorzugten Sprache mit unserer Internationalisierungs- (
i18n) Unterstützung. Wir laden Sie ein, sich uns bei der Erweiterung unserer unterstützten Sprachen anzuschließen! Wir suchen aktiv Mitwirkende! -
🌟 Kontinuierliche Updates: Wir sind bestrebt, Open WebUI mit regelmäßigen Updates, Fehlerbehebungen und neuen Funktionen zu verbessern.
Und viele weitere bemerkenswerte Funktionen, darunter... ⚡️
🔧 Pipelines Support
-
🔧 Pipelines Framework: Integrieren und passen Sie Ihre Open WebUI-Erfahrung nahtlos mit unserem modularen Plugin-Framework für verbesserte Anpassung und Funktionalität an (https://github.com/open-webui/pipelines). Unser Framework ermöglicht die einfache Hinzufügung benutzerdefinierter Logik und die Integration von Python-Bibliotheken, von KI-Agenten bis hin zu Home-Automatisierungs-APIs.
-
📥 Pipeline-Upload: Pipelines können direkt über das
Admin Panel>Settings>PipelinesMenü hochgeladen werden, was den Pipeline-Verwaltungsprozess rationalisiert.
Die Möglichkeiten mit unserem Pipelines-Framework sind grenzenlos und praktisch unbegrenzt. Beginnen Sie mit einigen vorgefertigten Pipelines, die Ihnen den Einstieg erleichtern!
-
🔗 Function Calling: Integrieren Sie Function Calling nahtlos über Pipelines, um Ihre LLM-Interaktionen mit erweiterten Function Calling-Fähigkeiten zu verbessern.
-
📚 Custom RAG: Integrieren Sie nahtlos eine benutzerdefinierte Retrieval Augmented Generation (RAG) Pipeline, um Ihre LLM-Interaktionen mit benutzerdefinierter RAG-Logik zu verbessern.
-
📊 Nachrichtenüberwachung mit Langfuse: Überwachen und analysieren Sie Nachrichteninteraktionen mit Echtzeit-Nutzungsstatistiken über die Langfuse-Pipeline.
-
⚖️ Benutzer-Ratenbegrenzung: Verwalten Sie die API-Nutzung effizient, indem Sie den Fluss von Anfragen an LLMs steuern, um Ratenbegrenzungen zu vermeiden, mit der Rate Limit-Pipeline.
-
🌍 Echtzeit-LibreTranslate-Übersetzung: Integrieren Sie Echtzeit-Übersetzungen in Ihre LLM-Interaktionen mit der LibreTranslate-Pipeline, die die cross-linguale Kommunikation ermöglicht.
- Bitte beachten Sie, dass diese Pipeline eine weitere Einrichtung mit LibreTranslate in einem Docker-Container erfordert, um zu funktionieren.
-
🛡️ Filterung toxischer Nachrichten: Unsere Detoxify-Pipeline filtert automatisch toxische Nachrichten heraus, um eine saubere und sichere Chat-Umgebung aufrechtzuerhalten.
-
🔒 LLM-Guard: Sorgen Sie für sichere LLM-Interaktionen mit der LLM-Guard-Pipeline, die einen Prompt Injection Scanner enthält, der raffinierte Eingabemanipulationen erkennt und abmildert, die auf Large Language Models abzielen. Dies schützt Ihre LLMs vor Datenlecks und bietet eine zusätzliche Widerstandsfähigkeit gegen Prompt-Injection-Angriffe.
-
🕒 Unterhaltungsrundenbegrenzungen: Verbessern Sie die Interaktionsverwaltung, indem Sie die Anzahl der Unterhaltungsrunden mit der Conversation Turn Limit-Pipeline festlegen.
-
📈 OpenAI Generierungsstatistiken: Unsere OpenAI-Pipeline bietet detaillierte Generierungsstatistiken für OpenAI-Modelle.
-
🚀 Unterstützung mehrerer Modelle: Unsere nahtlose Integration mit verschiedenen KI-Modellen von verschiedenen Anbietern erweitert Ihre Möglichkeiten mit einer breiten Palette von Sprachmodellen zur Auswahl und Interaktion.
Zusätzlich zu den umfangreichen Funktionen und Anpassungsoptionen bieten wir auch eine Bibliothek mit gebrauchsfertigen Beispiel-Pipelines sowie eine praktische Beispiel-Pipeline-Schablone, die Ihnen den Einstieg erleichtert. Diese Ressourcen werden Ihren Entwicklungsprozess optimieren und es Ihnen ermöglichen, mit Pipelines und Python schnell leistungsstarke LLM-Interaktionen zu erstellen. Viel Spaß beim Programmieren! 💡
🖥️ User Experience
-
🖥️ Intuitive Oberfläche: Die Chat-Oberfläche wurde mit Blick auf den Benutzer gestaltet und ist von der Benutzeroberfläche von ChatGPT inspiriert.
-
⚡ Schnelle Reaktionsfähigkeit: Genießen Sie zuverlässig schnelle und reaktionsschnelle Leistung.
-
🎨 Splash Screen: Ein einfacher Lade-Splashscreen für eine reibungslosere Benutzererfahrung.
-
🌐 Personalisierte Oberfläche: Wählen Sie unter Einstellungen > Oberfläche zwischen einer neu gestalteten Such-Landingpage und der klassischen Chat-UI, um ein maßgeschneidertes Erlebnis zu ermöglichen.
-
📦 Pip Install Methode: Die Installation von Open WebUI kann über den Befehl
pip install open-webuierfolgen, was den Prozess vereinfacht und ihn für neue Benutzer zugänglicher macht. Weitere Informationen finden Sie unter: https://pypi.org/project/open-webui/. -
🌈 Theme-Anpassung: Personalisieren Sie Ihre Open WebUI-Erfahrung mit einer Reihe von Optionen, darunter verschiedene solide, aber elegante Themes, anpassbare Chat-Hintergrundbilder und drei Modus-Optionen: Hell, Dunkel oder OLED-Dunkelmodus – oder lassen Sie Sie für sich wählen! ;)
-
🖼️ Unterstützung für benutzerdefinierte Hintergründe: Legen Sie einen benutzerdefinierten Hintergrund unter Einstellungen > Oberfläche fest, um Ihre Erfahrung zu personalisieren.
-
📝 Reiche Banner mit Markdown: Erstellen Sie visuell ansprechende Ankündigungen mit Markdown-Unterstützung in Bannern, die reichhaltigere und dynamischere Inhalte ermöglichen.
-
💻 Code-Syntax-Hervorhebung: Unsere Syntax-Hervorhebungsfunktion verbessert die Lesbarkeit von Code und bietet eine klare und prägnante Ansicht Ihres Codes.
-
🗨️ Markdown-Rendering in Benutzernachrichten: Benutzernachrichten werden jetzt in Markdown gerendert, was die Lesbarkeit und Interaktion verbessert.
-
🎨 Flexible Text-Eingabeoptionen: Wechseln Sie zwischen Rich-Text-Eingabe und klassischer Textbereichseingabe für Chats, um den Benutzerpräferenzen gerecht zu werden und die Wahl zwischen erweiterter Formatierung und einfacher Texteingabe zu ermöglichen.
-
👆 Müheloses Teilen von Code: Optimieren Sie den Teilungs- und Kollaborationsprozess mit praktischen Optionen zum Kopieren von Code, einschließlich einer schwebenden Kopierschaltfläche in Codeblöcken und einer Klick-zum-Kopieren-Funktionalität aus Code-Spans, wodurch Zeit gespart und Frustration reduziert wird.
-
🎨 Interaktive Artefakte: Rendern Sie Webinhalte und SVGs direkt in der Oberfläche, unterstützen Sie schnelle Iterationen und Live-Änderungen für verbesserte Kreativität und Produktivität.
-
🖊️ Live-Code-Bearbeitung: Superaufgeladene Codeblöcke ermöglichen die Live-Bearbeitung direkt in der LLM-Antwort, mit Live-Neuladungen, die von Artefakten unterstützt werden, was das Codieren und Testen rationalisiert.
-
🔍 Erweiterte SVG-Interaktion: Schwenk- und Zoomfunktionen für SVG-Bilder, einschließlich Mermaid-Diagrammen, ermöglichen eine tiefere Erkundung und ein besseres Verständnis komplexer Konzepte.
-
🔍 Schnellaktionen bei Textauswahl: Schwebende Schaltflächen erscheinen, wenn Text in LLM-Antworten hervorgehoben wird, und bieten tiefere Interaktionen wie "Eine Frage stellen" oder "Erklären" und verbessern die allgemeine Benutzererfahrung.
-
↕️ Bidirektionale Chat-Unterstützung: Sie können problemlos zwischen Links-nach-rechts- und Rechts-nach-links-Chat-Richtungen wechseln, um verschiedene Sprachpräferenzen zu berücksichtigen.
-
📱 Mobile Zugänglichkeit: Die Seitenleiste kann auf Mobilgeräten mit einer einfachen Swipe-Geste geöffnet und geschlossen werden.
-
🤳 Haptisches Feedback auf unterstützten Geräten: Android-Geräte unterstützen haptisches Feedback für ein immersives taktiles Erlebnis bei bestimmten Interaktionen.
-
🔍 Benutzereinstellungen-Suche: Durchsuchen Sie schnell Einstellungenfelder, was die Benutzerfreundlichkeit und Navigation verbessert.
-
📜 Offline-Swagger-Dokumentation: Greifen Sie offline auf Entwickler-freundliche Swagger-API-Dokumentation zu und stellen Sie so die vollständige Zugänglichkeit überall sicher.
-
💾 Performance-Optimierungen: Lazy Loading großer Abhängigkeiten minimiert den anfänglichen Speicherverbrauch, verbessert die Leistung und reduziert Ladezeiten.
-
🚀 Persistente und skalierbare Konfiguration: Open WebUI-Konfigurationen werden in einer Datenbank (webui.db) gespeichert und ermöglichen nahtloses Load Balancing, Hochverfügbarkeits-Setups und persistente Einstellungen über mehrere Instanzen hinweg, wodurch Ihre Konfigurationen leicht zugänglich und wiederverwendbar sind.
-
🔄 Portabler Import/Export: Importieren und exportieren Sie Open WebUI-Konfigurationen einfach und vereinfachen Sie so die Replikation von Einstellungen auf mehreren Systemen.
-
❓ Schneller Zugriff auf Dokumentation & Verknüpfungen: Die Fragezeichentaste unten rechts auf dem Haupt-UI-Bildschirm (verfügbar auf größeren Bildschirmen wie Desktop-PCs und Laptops) bietet Benutzern einfachen Zugriff auf die Open WebUI-Dokumentationsseite und die verfügbaren Tastenkombinationen.
-
📜 Changelog & Auf Updates prüfen: Benutzer können über das Menü
Einstellungen>Info>Neuigkeiten anzeigenauf ein umfassendes Changelog zugreifen und nach Updates suchen. Dieses Menü bietet einen schnellen Überblick über die neuesten Funktionen, Verbesserungen und Fehlerbehebungen sowie die Möglichkeit, nach Updates zu suchen.
💬 Conversations
-
💬 Echt asynchrone Chats: Genießen Sie unterbrechungsfreies Multitasking mit echter asynchroner Chat-Unterstützung, die es Ihnen ermöglicht, Chats zu erstellen, wegzunavigieren und jederzeit mit fertigen Antworten zurückzukehren.
-
🔔 Benachrichtigungen über Chat-Abschluss: Bleiben Sie mit sofortigen In-UI-Benachrichtigungen auf dem Laufenden, wenn ein Chat in einem nicht aktiven Tab beendet wird, sodass Sie nie eine abgeschlossene Antwort verpassen.
-
🌐 Webhook-Integration für Benachrichtigungen: Erhalten Sie zeitnahe Updates für langlaufende Chats oder externe Integrationsanforderungen mit konfigurierbaren Webhook-Benachrichtigungen, auch wenn Ihr Tab geschlossen ist.
-
📚 Channels (Beta): Erkunden Sie Echtzeit-Kollaboration zwischen Benutzern und KI mit Chatrooms im Discord/Slack-Stil, erstellen Sie Bots für Channels und schalten Sie asynchrone Kommunikation für proaktive Multi-Agenten-Workflows frei.
-
🖊️ Tipp-Indikatoren in Kanälen: Verbessern Sie die Zusammenarbeit mit Echtzeit-Tipp-Indikatoren in Kanälen, um alle engagiert und informiert zu halten.
-
👤 Benutzerstatus-Indikatoren: Zeigen Sie schnell den Status eines Benutzers an, indem Sie auf sein Profilbild in Kanälen klicken, was zu einer besseren Koordination und besseren Einblicken in die Verfügbarkeit führt.
-
💬 Chat-Steuerelemente: Passen Sie Parameter für jede Chatsitzung einfach an und bieten Sie so eine präzisere Kontrolle über Ihre Interaktionen.
-
💖 Verwaltung bevorzugter Antworten: Markieren und organisieren Sie bevorzugte Antworten einfach direkt aus der Chat-Übersicht, was die einfache Abrufbarkeit und den Zugriff auf bevorzugte Antworten verbessert.
-
📌 Angeheftete Chats: Unterstützung für angeheftete Chats, sodass Sie wichtige Unterhaltungen leicht zugänglich halten können.
-
🔍 RAG-Embedding-Unterstützung: Ändern Sie das Retrieval Augmented Generation (RAG)-Embedding-Modell direkt im Menü
Admin Panel>Settings>Documents, um die Dokumentenverarbeitung zu verbessern. Diese Funktion unterstützt Ollama- und OpenAI-Modelle. -
📜 Zitate in RAG-Funktion: Die Retrieval Augmented Generation (RAG)-Funktion ermöglicht es Benutzern, den Kontext von Dokumenten, die LLMs zugeführt werden, mit hinzugefügten Zitaten als Referenzpunkte leicht zu verfolgen.
-
🌟 Verbesserte RAG-Pipeline: Eine umschaltbare Hybrid-Such-Unterfunktion für unsere RAG-Embedding-Funktion, die die RAG-Funktionalität über
BM25verbessert, mit Neukodierung durchCrossEncoderund konfigurierbaren Relevanzschwellenwerten. -
📹 YouTube RAG-Pipeline: Die dedizierte Retrieval Augmented Generation (RAG)-Pipeline zum Zusammenfassen von YouTube-Videos über Videolinks ermöglicht eine reibungslose Interaktion direkt mit Video-Transkriptionen.
-
📁 Umfassende Dokumentenabfrage: Wechseln Sie zwischen vollständiger Dokumentenabfrage und traditionellen Snippets, was umfassende Aufgaben wie Zusammenfassungen ermöglicht und erweiterte Dokumentenfunktionen unterstützt.
-
🌟 RAG-Zitat-Relevanz: Bewerten Sie die Zitatgenauigkeit einfach mit der Hinzufügung von Relevanzprozenten in RAG-Ergebnissen.
-
🗂️ Erweiterte RAG: Verbessern Sie die RAG-Genauigkeit durch intelligente Vorverarbeitung des Chat-Verlaufs, um die besten Abfragen vor der Abfrage zu ermitteln.
-
📚 Inline-Zitate für RAG: Profitieren Sie von nahtlosen Inline-Zitaten für Retrieval-Augmented Generation (RAG)-Antworten, was die Rückverfolgbarkeit verbessert und Quellklarheit für neu hochgeladene Dateien bietet.
-
📁 Verarbeitung großer Texte: Konvertieren Sie optional große eingefügte Texte in einen Datei-Upload, der direkt mit RAG verwendet werden kann, wodurch die Chat-Oberfläche sauberer bleibt.
-
🔄 Unterstützung für Multimodalität: Interagieren Sie mühelos mit Modellen, die multimodale Interaktionen unterstützen, einschließlich Bildern (
z. B. LLaVA). -
🤖 Mehrere Modelle unterstützt: Wechseln Sie schnell zwischen verschiedenen Modellen für abwechslungsreiche Chat-Interaktionen.
-
🔀 Antworten in vielen Modell-Chats zusammenführen: Verbessert den Dialog durch Zusammenführung von Antworten mehrerer Modelle zu einer einzigen, kohärenten Antwort.
-
✅ Mehrere Instanzen desselben Modells in Chats: Erweiterte Many-Model-Chat-Funktion zur Unterstützung des Hinzufügens mehrerer Instanzen desselben Modells.
-
💬 Temporäre Chat-Funktion: Einführung einer temporären Chat-Funktion, die die alte Chat-Verlaufseinstellung ablöst, um die Flexibilität der Benutzerinteraktion zu verbessern.
-
🖋️ Bearbeitung von Benutzernachrichten: Die Funktion zur Bearbeitung von Benutzerchats wurde erweitert, um das Speichern von Änderungen ohne Senden zu ermöglichen.
-
💬 Effiziente Konversationsbearbeitung: Erstellen Sie schnell und intuitiv neue Nachrichtenpaare mit der Tastenkombination Cmd/Ctrl+Shift+Enter, was Tests der Konversationslänge rationalisiert.
-
🖼️ Clientseitige Bildkomprimierung: Sparen Sie Bandbreite und verbessern Sie die Leistung mit clientseitiger Bildkomprimierung. Sie können Bilder vor dem Hochladen unter Einstellungen > Oberfläche komprimieren.
-
👥 '@' Modellintegration: Durch nahtloses Wechseln zu jedem zugänglichen lokalen oder externen Modell während der Konversation können Benutzer die kollektive Intelligenz mehrerer Modelle in einem einzigen Chat nutzen. Dies kann durch die Verwendung des
@-Befehls erfolgen, um das Modell im Chat anhand seines Namens anzugeben. -
🏷️ Konversations-Tagging: Kategorisieren und finden Sie getaggte Chats mühelos für schnelle Referenzierung und optimierte Datenerfassung mit unserem effizienten 'tag:'-Abfragesystem, mit dem Sie Ihre Konversationen verwalten, durchsuchen und organisieren können, ohne die Benutzeroberfläche zu überladen.
-
🧠 Auto-Tagging: Konversationen können optional automatisch getaggt werden, um die Organisation zu verbessern und die Effizienz automatisch generierter Titel zu spiegeln.
-
👶 Chat-Klonen: Klonen und speichern Sie ganz einfach einen Schnappschuss eines beliebigen Chats für zukünftige Referenzierung oder Fortsetzung. Diese Funktion erleichtert das Aufgreifen, wo Sie aufgehört haben, oder das Teilen Ihrer Sitzung mit anderen. Um eine Kopie Ihres Chats zu erstellen, klicken Sie einfach auf die Schaltfläche
Klonenin den Dropdown-Optionen des Chats. Können Sie mit Ihren Klonen mithalten? -
⭐ Visualisierte Konversationsflüsse: Interaktive Nachrichten Diagramme zur verbesserten Visualisierung von Konversationsflüssen, die das Verständnis und die Navigation komplexer Diskussionen verbessern.
-
📁 Chat-Ordner: Organisieren Sie Ihre Chats in Ordnern, ziehen Sie sie zur einfachen Verwaltung per Drag & Drop und exportieren Sie sie nahtlos zum Teilen oder Analysieren.
-
📤 Einfacher Chat-Import: Importieren Sie Chats in Ihren Workspace, indem Sie einfach Chat-Exporte (JSON) per Drag & Drop auf die Seitenleiste ziehen.
-
📜 Unterstützung für Prompt-Voreinstellungen: Greifen Sie sofort auf benutzerdefinierte Prompt-Voreinstellungen zu, indem Sie den
/-Befehl in der Chat-Eingabe verwenden. Laden Sie vordefinierte Gesprächsstarter mühelos und beschleunigen Sie Ihre Interaktionen. Importieren Sie Prompts einfach über die Open WebUI Community-Integration oder erstellen Sie Ihre eigenen! -
📅 Unterstützung für Prompt-Variablen: Prompt-Variablen wie
{{CLIPBOARD}},{{CURRENT_DATE}},{{CURRENT_DATETIME}},{{CURRENT_TIME}},{{CURRENT_TIMEZONE}},{{CURRENT_WEEKDAY}},{{USER_NAME}},{{USER_LANGUAGE}}und{{USER_LOCATION}}können in der Systemaufforderung oder durch Verwendung eines Schrägstrichbefehls zur direkten Auswahl einer Aufforderung in einem Chat verwendet werden.- Bitte beachten Sie, dass die
{{USER_LOCATION}}Prompt-Variable eine sichere Verbindung über HTTPS erfordert. Um diese spezielle Prompt-Variable zu verwenden, stellen Sie bitte sicher, dass{{USER_LOCATION}}im MenüEinstellungen>Oberflächeaktiviert ist. - Bitte beachten Sie, dass die
{{CLIPBOARD}}Prompt-Variable Zugriff auf die Zwischenablage Ihres Geräts erfordert.
- Bitte beachten Sie, dass die
-
🧠 Speicherfunktion: Fügen Sie manuell Informationen hinzu, die Ihre LLMs über das Menü
Einstellungen>Personalisierung>Speicherbehalten sollen. Erinnerungen können hinzugefügt, bearbeitet und gelöscht werden.
💻 Model Management
-
🛠️ Model Builder: Alle Modelle können mit einem persistenten Model Builder-Modus auf der Modellbearbeitungsseite erstellt und bearbeitet werden.
-
📚 Wissensunterstützung für Modelle: Die Möglichkeit, Tools, Funktionen und Wissenssammlungen direkt von der Bearbeitungsseite eines Modells aus an Modelle anzuhängen, was die für jedes Modell verfügbaren Informationen verbessert.
-
🗂️ Modell-Voreinstellungen: Erstellen und verwalten Sie Modell-Voreinstellungen sowohl für die Ollama- als auch für die OpenAI-API.
-
🏷️ Modell-Tagging: Der Modell-Workspace ermöglicht es Benutzern, ihre Modelle mithilfe von Tags zu organisieren.
-
📋 Sortierung des Modellselektor-Dropdowns: Modelle können mühelos organisiert werden, indem sie im Modell-Workspace per Drag & Drop in die gewünschte Position verschoben werden, was sich dann im Modell-Dropdown-Menü widerspiegelt.
-
🔍 Modellselektor-Dropdown: Finden und wählen Sie Ihre Modelle einfach mit Fuzzy-Suche und detaillierten Modellinformationen mit Modell-Tags und Modellbeschreibungen.
-
⌨️ Modellauswahl mit Pfeiltasten: Verwenden Sie Pfeiltasten für eine schnellere Modellauswahl und verbessern Sie die Zugänglichkeit.
-
🔧 Schnellaktionen im Modell-Workspace: Erweiterte Schnellaktionen mit der Umschalttaste zum Ausblenden/Einblenden und Löschen von Modellen im Modell-Workspace.
-
😄 Transparente Modellnutzung: Bleiben Sie dank sichtbarer Statusanzeigen über den Zustand des Systems während der Abfragen mit wissensgestützten Modellen informiert.
-
⚙️ Fein abgestimmte Steuerung mit erweiterten Parametern: Erhalten Sie ein tieferes Maß an Kontrolle, indem Sie Modellparameter wie
seed,temperature,frequency penalty,context length,seedund mehr anpassen. -
🔄 Nahtlose Integration: Kopieren Sie jeden
ollama run {model:tag}CLI-Befehl direkt von der Seite eines Modells in der Ollama-Bibliothek und fügen Sie ihn in das Modell-Dropdown ein, um Modelle einfach auszuwählen und herunterzuladen. -
🗂️ Ollama Modelfile erstellen: Um eine Modelldatei für Ollama zu erstellen, navigieren Sie zum Menü
Admin Panel>Settings>Models>Create a model. -
⬆️ GGUF-Datei-Modellerstellung: Erstellen Sie mühelos Ollama-Modelle, indem Sie GGUF-Dateien direkt aus Open WebUI im Menü
Admin Settings>Settings>Model>Experimentalhochladen. Der Prozess wurde mit der Option zum Hochladen von Ihrem Computer oder Herunterladen von GGUF-Dateien von Hugging Face optimiert. -
⚙️ Standardmodell-Einstellung: Die Standardmodellpräferenz für neue Chats kann im Menü
Einstellungen>Oberflächeauf Mobilgeräten festgelegt werden, oder sie kann einfacher in einem neuen Chat unter dem Modellselektor-Dropdown auf Desktop-PCs und Laptops festgelegt werden. -
💡 LLM-Antwort-Einblicke: Details jeder generierten Antwort können eingesehen werden, einschließlich externer Modell-API-Einblicke und umfassender lokaler Modellinformationen.
-
🕒 Modell-Details auf einen Blick: Zeigen Sie kritische Modelldetails, einschließlich Modell-Hash und letztem Änderungszeitstempel, direkt im Models-Workspace für verbesserte Nachverfolgung und Verwaltung an.
-
📥🗑️ Modelle herunterladen/löschen: Modelle können einfach direkt aus Open WebUI heruntergeladen oder gelöscht werden.
-
🔄 Alle Ollama-Modelle aktualisieren: Eine praktische Schaltfläche ermöglicht es Benutzern, alle lokal installierten Modelle in einem Vorgang zu aktualisieren und so die Modellverwaltung zu optimieren.
-
🍻 TavernAI Charakterkarten-Integration: Erleben Sie verbesserte visuelle Erzählungen mit der TavernAI Charakterkarten-Integration in unserem Model Builder. Benutzer können TavernAI Charakterkarten-PNGs nahtlos direkt in ihre Modelldateien integrieren und so ein immersiveres und ansprechenderes Benutzererlebnis schaffen.
-
🎲 Modell-Playground (Beta): Testen Sie Modelle mit dem Modell-Playground-Bereich (
beta), der es Benutzern ermöglicht, Modellfunktionen und Parameter einfach in einer Sandbox-Umgebung zu testen und zu erkunden, bevor sie in einer Live-Chat-Umgebung eingesetzt werden.
👥 Collaboration
-
🗨️ Lokales Teilen von Chats: Generieren und teilen Sie Chat-Links effizient und nahtlos zwischen Benutzern, wodurch die Zusammenarbeit und Kommunikation verbessert wird.
-
👍👎 RLHF-Annotation: Erhöhen Sie die Wirkung Ihrer Nachrichten, indem Sie sie mit einem Daumen hoch oder Daumen runter bewerten und eine Bewertung für die Antwort auf einer Skala von 1-10 abgeben, gefolgt von der Möglichkeit, textliches Feedback zu geben, was die Erstellung von Datensätzen für Reinforcement Learning from Human Feedback (
RLHF) erleichtert. Nutzen Sie Ihre Nachrichten, um Modelle zu trainieren oder feinabzustimmen, während Sie die Vertraulichkeit lokal gespeicherter Daten gewährleisten. -
🔧 Umfassender Export von Feedback: Exportieren Sie Feedback-Verlaufsdaten als JSON für eine nahtlose Integration mit der RLHF-Verarbeitung und weitere Analysen, um wertvolle Einblicke zur Verbesserung zu gewinnen.
-
🤝 Community-Sharing: Teilen Sie Ihre Chat-Sitzungen mit der Open WebUI Community, indem Sie auf die Schaltfläche
Share to Open WebUI Communityklicken. Diese Funktion ermöglicht es Ihnen, mit anderen Benutzern zu interagieren und auf der Plattform zusammenzuarbeiten.- Um diese Funktion nutzen zu können, melden Sie sich bitte in Ihrem Open WebUI Community-Konto an. Das Teilen Ihrer Chats fördert eine lebendige Community, regt den Wissensaustausch an und erleichtert die gemeinsame Problemlösung. Bitte beachten Sie, dass das Teilen von Chat-Sitzungen in der Community eine optionale Funktion ist. Nur Administratoren können diese Funktion im Menü
Admin Settings>Settings>Generalein- oder ausschalten.
- Um diese Funktion nutzen zu können, melden Sie sich bitte in Ihrem Open WebUI Community-Konto an. Das Teilen Ihrer Chats fördert eine lebendige Community, regt den Wissensaustausch an und erleichtert die gemeinsame Problemlösung. Bitte beachten Sie, dass das Teilen von Chat-Sitzungen in der Community eine optionale Funktion ist. Nur Administratoren können diese Funktion im Menü
-
🏆 Community-Bestenliste: Messen Sie sich und verfolgen Sie Ihre Leistung in Echtzeit mit unserem Bestenlistensystem, das das ELO-Bewertungssystem nutzt und das optionale Teilen des Feedback-Verlaufs ermöglicht.
-
⚔️ Modell-Evaluierungsarena: Führen Sie Blind-A/B-Tests von Modellen direkt in den Admin-Einstellungen durch, um einen echten Seiten-Seiten-Vergleich zu ermöglichen und so das beste Modell für Ihre Bedürfnisse leichter zu finden.
-
🎯 Themenbasierte Ranglisten: Entdecken Sie genauere Ranglisten mit unserem experimentellen themenbasierten Re-Ranking-System, das die Platzierungen in der Bestenliste basierend auf der Tag-Ähnlichkeit im Feedback anpasst.
-
📂 Vereinheitlichter und kollaborativer Arbeitsbereich: Greifen Sie an einem praktischen Ort auf alle Ihre Modelldateien, Prompts, Dokumente, Tools und Funktionen zu und verwalten Sie diese, während Sie es mehreren Benutzern ermöglichen, an Modellen, Wissen, Prompts oder Tools zusammenzuarbeiten und dazu beizutragen, Ihren Workflow zu optimieren und die Teamarbeit zu verbessern.
📚 Verlauf & Archiv
-
📜 Chat-Verlauf: Greifen Sie über die Chat-Navigationsleiste einfach auf Ihren Gesprächsverlauf zu und verwalten Sie ihn. Schalten Sie den Chat-Verlauf im Menü
Settings>Chatsaus, um zu verhindern, dass bei neuen Interaktionen ein Chat-Verlauf erstellt wird. -
🔄 Zugriff auf Regenerationsverlauf: Greifen Sie einfach auf Ihren gesamten Regenerationsverlauf von LLM-Antworten zu und erkunden Sie ihn.
-
📬 Chats archivieren: Speichern Sie mühelos abgeschlossene Gespräche, die Sie mit Modellen geführt haben, für zukünftige Referenz oder Interaktion, um eine aufgeräumte und übersichtliche Chat-Oberfläche zu erhalten.
-
🗃️ Alle Chats archivieren: Diese Funktion ermöglicht es Ihnen, alle Ihre Chats auf einmal zu archivieren.
-
📦 Alle archivierten Chats als JSON exportieren: Diese Funktion ermöglicht es Benutzern, alle ihre archivierten Chats einfach in einer einzigen JSON-Datei zu exportieren, die für Sicherungs- oder Übertragungszwecke verwendet werden kann.
-
📄 Chats als JSON/PDF/TXT herunterladen: Laden Sie Ihre Chats einfach einzeln in Ihrem bevorzugten Format
.json,.pdfoder.txtherunter. -
📤📥 Chat-Verlauf importieren/exportieren: Verschieben Sie Ihre Chat-Daten nahtlos in und aus der Plattform über die Optionen
Import ChatsundExport Chats. -
🗑️ Alle Chats löschen: Diese Option ermöglicht es Ihnen, alle Ihre Chats dauerhaft zu löschen und einen Neuanfang zu gewährleisten.
🎙️ Audio, Sprache & Barrierefreiheit
-
🗣️ Spracheingabeunterstützung: Interagieren Sie über Sprachbefehle mit Ihrem Modell; genießen Sie den Komfort, direkt mit Ihrem Modell zu sprechen. Erkunden Sie zusätzlich die Option, die Spracheingabe nach 3 Sekunden Stille automatisch zu senden, um eine optimierte Erfahrung zu erzielen.
- Der Zugriff auf das Mikrofon erfordert die manuelle Einrichtung einer sicheren Verbindung über HTTPS, um zu funktionieren, oder die manuelle Whitelisting Ihrer URL auf eigene Gefahr.
-
😊 Emoji-Anruf: Schalten Sie diese Funktion im Menü
Settings>Interfaceein, damit LLMs während Sprachanrufen Emotionen mit Emojis ausdrücken können, für eine dynamischere Interaktion.- Der Zugriff auf das Mikrofon erfordert eine sichere Verbindung über HTTPS, damit diese Funktion funktioniert.
-
🎙️ Freihändige Sprachanruffunktion: Initiieren Sie Sprachanrufe, ohne Ihre Hände benutzen zu müssen, was die Interaktion nahtloser macht.
- Der Mikrofonzugriff ist erforderlich und erfordert eine sichere Verbindung über HTTPS, damit diese Funktion funktioniert.
-
📹 Videoanruffunktion: Ermöglichen Sie Videoanrufe mit unterstützten Vision-Modellen wie LlaVA und GPT-4o, was Ihren Kommunikationen eine visuelle Dimension verleiht.
- Sowohl Kamera- als auch Mikrofonzugriff sind erforderlich und erfordern eine sichere Verbindung über HTTPS, damit diese Funktion funktioniert.
-
👆 Tippen zum Unterbrechen: Stoppen Sie die Sprache des KI während Sprachgesprächen mit einem einfachen Tippen auf Mobilgeräten, um eine nahtlose Kontrolle über die Interaktion zu gewährleisten.
-
🎙️ Sprachunterbrechung: Stoppen Sie die Sprache des KI während Sprachgesprächen mit Ihrer Stimme auf Mobilgeräten, um eine nahtlose Kontrolle über die Interaktion zu gewährleisten.
-
🔊 Konfigurierbarer Text-to-Speech-Endpunkt: Passen Sie Ihr Text-to-Speech-Erlebnis mit konfigurierbaren OpenAI-kompatiblen Endpunkten für das Vorlesen von LLM-Antworten an.
-
🔗 Direkter Aufrufmodus-Zugriff: Aktivieren Sie den Aufrufmodus direkt über eine URL, was eine praktische Verknüpfung für Benutzer von Mobilgeräten darstellt.
-
✨ Anpassbares Text-to-Speech: Steuern Sie, wie Nachrichteninhalte für Text-to-Speech (TTS)-Generierungsanfragen segmentiert werden, was flexible Sprachausgabeoptionen ermöglicht.
-
🔊 Azure Speech Services Integration: Unterstützt Azure Speech Services für Text-to-Speech (TTS) und bietet Benutzern eine größere Auswahl an Sprachsyntheseoptionen.
-
🎚️ Anpassbare Audiowiedergabe: Ermöglicht Benutzern, die Wiedergabegeschwindigkeit von Audio an ihre Vorlieben in den Einstellungen des Aufrufmodus anzupassen, was die Zugänglichkeit und Benutzerfreundlichkeit verbessert.
-
🎵 Breite Audio-Kompatibilität: Genießen Sie die Unterstützung für Transkriptionen einer breiten Palette von Audio-Dateiformaten mit RAG, einschließlich 'audio/x-m4a', um die Kompatibilität mit Audioinhalten auf der Plattform zu erweitern.
-
🔊 Audio-Komprimierung: Die experimentelle Audio-Komprimierung ermöglicht die Umgehung der 25-MB-Grenze für die Speech-to-Text-Verarbeitung von OpenAI und erweitert die Möglichkeiten für Audio-basierte Interaktionen.
-
🗣️ Experimentelles SpeechT5 TTS: Genießen Sie lokale SpeechT5-Unterstützung für verbesserte Text-to-Speech-Funktionen.
🐍 Code-Ausführung
-
🚀 Vielseitiges, UI-agnostisches, OpenAI-kompatibles Plugin-Framework: Integrieren und passen Sie Open WebUI Pipelines nahtlos für eine effiziente Datenverarbeitung und Modellschulung an und sorgen Sie so für ultimative Flexibilität und Skalierbarkeit.
-
🛠️ Native Python Function Calling: Greifen Sie mit nativem Function Calling direkt in Open WebUI auf die Leistung von Python zu. Integrieren Sie einfach benutzerdefinierten Code, um einzigartige Funktionen wie benutzerdefinierte RAG-Pipelines, Web-Suchwerkzeuge und sogar agentenähnliche Aktionen über einen integrierten Code-Editor zu erstellen, um Funktionscode nahtlos im Arbeitsbereich
ToolsundFunctionszu entwickeln und zu integrieren. -
🐍 Python-Code-Ausführung: Führen Sie Python-Code lokal im Browser über Pyodide mit einer Reihe von von Pyodide unterstützten Bibliotheken aus.
-
🌊 Mermaid-Rendering: Erstellen Sie direkt in Open WebUI visuell ansprechende Diagramme und Flussdiagramme mit dem Mermaid Diagramm- und Charting-Tool, das das Rendering von Mermaid-Syntax unterstützt.
-
🔗 Iframe-Unterstützung: Ermöglicht das Rendern von HTML direkt in Ihre Chat-Oberfläche mithilfe von Funktionen und Tools.
🔒 Integration & Sicherheit
-
✨ Unterstützung für mehrere OpenAI-kompatible APIs: Integrieren und passen Sie verschiedene OpenAI-kompatible APIs nahtlos an und erweitern Sie so die Vielseitigkeit Ihrer Chat-Interaktionen.
-
🔑 Vereinfachte API-Schlüsselverwaltung: Generieren und verwalten Sie einfach geheime Schlüssel, um Open WebUI mit OpenAI-Bibliotheken zu nutzen, was die Integration und Entwicklung vereinfacht.
-
🌐 HTTP/S-Proxy-Unterstützung: Konfigurieren Sie Netzwerkeinstellungen einfach über die Umgebungsvariable
http_proxyoderhttps_proxy. Diese Variablen sollten, falls gesetzt, die URLs für HTTP- und HTTPS-Proxys enthalten. -
🌐🔗 Konnektivität mit externem Ollama-Server: Stellen Sie nahtlos eine Verbindung zu einem externen Ollama-Server her, der auf einer anderen Adresse gehostet wird, indem Sie die Umgebungsvariable konfigurieren.
-
🛢️ Flexible Datenbankintegration: Stellen Sie nahtlos eine Verbindung zu benutzerdefinierten Datenbanken her, einschließlich SQLite, Postgres und mehreren Vektordatenbanken wie Milvus, über Umgebungsvariablen für eine flexible und skalierbare Datenverwaltung.
-
🌐🗣️ Unterstützung für externe Speech-to-Text-Dienste: Die Ergänzung von externen Speech-to-Text (
STT)-Diensten bietet erweiterte Flexibilität und ermöglicht es Benutzern, ihren bevorzugten Anbieter für nahtlose Interaktion zu wählen. -
🌐 Remote ChromaDB-Unterstützung: Erweitern Sie die Fähigkeiten Ihrer Datenbank, indem Sie sich mit Remote ChromaDB-Servern verbinden.
-
🔀 Lastverteilung mehrerer Ollama-Instanzen: Verteilen Sie mühelos Chat-Anfragen über mehrere Ollama-Instanzen für verbesserte Leistung und Zuverlässigkeit.
-
🚀 Erweiterte Lastverteilung und Zuverlässigkeit: Nutzen Sie erweiterte Lastverteilungsfunktionen, zustandslose Instanzen mit vollständiger Redis-Unterstützung und automatische Wiederverbindung von WebSockets, um eine bessere Leistung, Zuverlässigkeit und Skalierbarkeit in WebUI zu fördern und nahtlose und unterbrechungsfreie Interaktionen über mehrere Instanzen hinweg zu gewährleisten.
-
☁️ Experimentelle S3-Unterstützung: Ermöglichen Sie zustandslose WebUI-Instanzen mit S3-Unterstützung für verbesserte Skalierbarkeit und Ausbalancierung starker Arbeitslasten.
-
🛠️ OAuth-Verwaltung für Benutzergruppen: Verbessern Sie die Kontrolle und Skalierbarkeit in kollaborativen Umgebungen mit gruppenbasierter Verwaltung über OAuth-Integration.
👑 Administration
-
👑 Super-Admin-Zuweisung: Weist automatisch den ersten Anmelder als Super-Admin mit einer unveränderlichen Rolle zu, die von niemandem, nicht einmal von anderen Admins, geändert werden kann.
-
🛡️ Granulare Benutzerberechtigungen: Beschränken Sie Benutzeraktionen und -zugriff mit anpassbaren rollenbasierten Berechtigungen, um sicherzustellen, dass nur autorisierte Personen bestimmte Aufgaben ausführen können.
-
👥 Multi-Benutzer-Verwaltung: Ein intuitives Admin-Panel mit Paginierung ermöglicht Ihnen die nahtlose Verwaltung mehrerer Benutzer, was die Benutzeradministration optimiert und die Verwaltung des Benutzerlebenszyklus vereinfacht.
-
🔧 Admin-Panel: Das Benutzerverwaltungssystem wurde entwickelt, um die Onboarding- und Verwaltungsprozesse für Benutzer zu optimieren. Es bietet die Möglichkeit, Benutzer direkt oder in großen Mengen über den CSV-Import hinzuzufügen.
-
👥 Indikator für aktive Benutzer: Überwachen Sie die Anzahl der aktiven Benutzer und welche Modelle von wem verwendet werden, um zu beurteilen, wann die Leistung aufgrund einer hohen Benutzeranzahl beeinträchtigt werden könnte.
-
🔒 Standard-Registrierungsrolle: Legen Sie die Standardrolle für neue Anmeldungen auf
pending,useroderadminfest, um Flexibilität bei der Verwaltung von Benutzerberechtigungen und Zugriffsebenen für neue Benutzer zu bieten. -
🔒 Neue Registrierungen verhindern: Aktivieren Sie die Option, neue Benutzerregistrierungen zu deaktivieren, den Zugriff auf die Plattform einzuschränken und eine feste Benutzeranzahl beizubehalten.
-
🔒 Chat-Löschung verhindern: Ermöglicht Administratoren das Umschalten einer Einstellung, die alle Benutzer daran hindert, ihre Chat-Nachrichten zu löschen, um sicherzustellen, dass alle Chat-Nachrichten zu Prüfungs- oder Compliance-Zwecken aufbewahrt werden.
-
🔗 Webhook-Integration: Abonnieren Sie Ereignisse neuer Benutzeranmeldungen über Webhooks (kompatibel mit
Discord,Google Chat,SlackundMicrosoft Teams) und bieten Sie so Echtzeitbenachrichtigungen und Automatisierungsmöglichkeiten. -
📣 Konfigurierbare Benachrichtigungsbanner: Administratoren können anpassbare Banner mit Persistenz in config.json erstellen, mit Optionen für Inhalt, Hintergrundfarbe (
info,warning,errorodersuccess) und die Möglichkeit, sie zu schließen. Banner sind nur für eingeloggte Benutzer zugänglich, wodurch die Vertraulichkeit sensibler Informationen gewährleistet wird. -
🛡️ Modell-Whitelisting: Verbessern Sie die Sicherheit und Zugriffskontrolle, indem Sie es Administratoren ermöglichen, Modelle für Benutzer mit der Rolle
userauf die Whitelist zu setzen, um sicherzustellen, dass nur autorisierte Modelle zugänglich sind. -
🔑 Admin-Kontrolle für Community-Sharing: Administratoren können das Community-Sharing für alle Benutzer über einen Schalter im Menü
Admin Panel>Settingsaktivieren oder deaktivieren. Dieser Schalter ermöglicht es Administratoren, Zugänglichkeit und Datenschutz zu verwalten und so eine sichere Umgebung zu gewährleisten. Administratoren haben die Möglichkeit, die SchaltflächeShare on Communityfür alle Benutzer zu aktivieren oder zu deaktivieren, was ihnen die Kontrolle über Community-Engagement und Zusammenarbeit ermöglicht. -
📧 Vertrauenswürdige E-Mail-Authentifizierung: Authentifizieren Sie optional über einen vertrauenswürdigen E-Mail-Header und fügen Sie eine zusätzliche Sicherheitsebene und Authentifizierung hinzu, um Ihre Open WebUI-Instanz zu schützen.
-
🔒 Backend-Reverse-Proxy-Unterstützung: Stärken Sie die Sicherheit durch direkte Kommunikation zwischen dem Backend von Open WebUI und Ollama. Diese Schlüsselfunktion macht es überflüssig, Ollama im lokalen Netzwerk (LAN) freizugeben. Anfragen an die Route
/ollama/apivon Open WebUI werden nahtlos vom Backend an Ollama weitergeleitet, was die allgemeine Systemsicherheit verbessert und eine zusätzliche Schutzschicht bietet. -
🔒 Authentifizierung: Bitte beachten Sie, dass Open WebUI von Haus aus keine föderierten Authentifizierungsschemata wie SSO, OAuth, SAML oder OIDC unterstützt. Es kann jedoch konfiguriert werden, um die Authentifizierung an einen authentifizierenden Reverse-Proxy zu delegieren und so effektiv ein Single Sign-On (
SSO)-Erlebnis zu erzielen. Diese Einrichtung ermöglicht es Ihnen, die Benutzerauthentifizierung und -verwaltung zu zentralisieren und so die Sicherheit und den Benutzerkomfort zu verbessern. Durch die Integration von Open WebUI mit einem authentifizierenden Reverse-Proxy können Sie bestehende Authentifizierungssysteme nutzen und den Benutzerzugriff auf Open WebUI optimieren. Weitere Informationen zur Konfiguration dieser Funktion finden Sie in der Unterstützung für föderierte Authentifizierung. -
🔓 Optionale Authentifizierung: Genießen Sie die Flexibilität, die Authentifizierung zu deaktivieren, indem Sie
WEBUI_AUTHaufFalsesetzen. Dies ist eine ideale Lösung für Neuinstallationen ohne vorhandene Benutzer oder kann für Demozwecke nützlich sein. -
🚫 Erweiterte API-Sicherheit: Blockieren Sie API-Benutzer basierend auf benutzerdefinierten Modellfiltern, um die Sicherheit und Kontrolle über den API-Zugriff zu verbessern.
-
❗ Administrator-Updates: Stellen Sie sicher, dass Administratoren über sofortige Update-Benachrichtigungen nach der Anmeldung informiert werden, und halten Sie sie über die neuesten Änderungen und Systemstatus auf dem Laufenden.
-
👥 Benutzergruppenverwaltung: Erstellen und verwalten Sie Benutzergruppen für eine nahtlose Organisation und Kontrolle.
-
🔐 Gruppenbasierte Zugriffskontrolle: Legen Sie granulare Zugriffe auf Modelle, Wissen, Prompts und Tools basierend auf Benutzergruppen fest, was zu kontrollierteren und sichereren Umgebungen führt.
-
🛠️ Granulare Benutzerberechtigungen: Verwalten Sie einfach Arbeitsbereichsberechtigungen, einschließlich Datei-Uploads, Löschungen, Bearbeitungen und temporärer Chats sowie die Erstellung von Modellen, Wissen, Prompts und Tools.
-
🔑 LDAP-Authentifizierung: Verbessern Sie Sicherheit und Skalierbarkeit mit LDAP-Unterstützung für die Benutzerverwaltung.
-
🌐 Anpassbare OpenAI-Verbindungen: Genießen Sie reibungslosen Betrieb mit benutzerdefinierten OpenAI-Konfigurationen, einschließlich Präfix-ID-Unterstützung und expliziter Modell-ID-Unterstützung für APIs.
-
🔐 Ollama API-Schlüsselverwaltung: Verwalten Sie Ollama-Anmeldeinformationen, einschließlich Präfix-ID-Unterstützung, für einen sicheren und effizienten Betrieb.
-
🔄 Verbindungsverwaltung: Aktivieren oder deaktivieren Sie einzelne OpenAI- und Ollama-Verbindungen nach Bedarf einfach.
-
🎨 Intuiver Modell-Arbeitsbereich: Verwalten Sie Modelle über Benutzer und Gruppen hinweg mit einer neu gestalteten und benutzerfreundlichen Oberfläche.
-
🔑 API-Schlüssel-Authentifizierung: Erhöhen Sie die Sicherheit durch einfaches Aktivieren oder Deaktivieren der API-Schlüssel-Authentifizierung.
-
🔄 Einheitliches Modell-Reset: Setzen Sie alle Modelle in den Admin-Einstellungen mit einer Ein-Klick-Option zurück und entfernen Sie sie.
-
🔓 Flexible Modellzugriffskontrolle: Umgehen Sie die Modellzugriffskontrollen für Benutzerrollen einfach, wenn dies nicht erforderlich ist, über die Umgebungsvariable 'BYPASS_MODEL_ACCESS_CONTROL', was die Workflows in vertrauenswürdigen Umgebungen vereinfacht.
-
🔒 Konfigurierbare API-Schlüssel-Authentifizierungsbeschränkungen: Konfigurieren Sie flexibel Endpunktbeschränkungen für die API-Schlüssel-Authentifizierung, die für eine reibungslosere Einrichtung in vertrauenswürdigen Umgebungen standardmäßig deaktiviert ist.

