Willkommen bei lollms webui (Lord of Large Language Multimodal Systems: Ein Werkzeug, um sie alle zu beherrschen), der Drehscheibe für LLM (Large Language Models) und multimodale Intelligenzsysteme. Ziel dieses Projekts ist die Bereitstellung einer benutzerfreundlichen Schnittstelle für den Zugriff auf und die Nutzung verschiedener LLM- und anderer KI-Modelle für ein breites Aufgabenspektrum. Egal, ob Sie Hilfe beim Schreiben, Codieren, Organisieren von Daten, Analysieren von Bildern, Generieren von Bildern, Musik oder beim Suchen nach Antworten auf Ihre Fragen benötigen, lollms webui sind Sie an der richtigen Adresse.
Als allumfassendes Tool mit Zugriff auf über 500 KI-Experten zur Konditionierung in verschiedenen Bereichen und mehr als 2500 fein abgestimmten Modellen in mehreren Bereichen verfügen Sie jetzt über eine sofortige Ressource für jedes Problem. Ganz gleich, ob Ihr Auto repariert werden muss oder ob Sie Hilfe beim Codieren in Python, C++ oder JavaScript benötigen; Fühlen Sie sich niedergeschlagen über Lebensentscheidungen, die falsch getroffen wurden, aber nicht erkennen können, wie? Fragen Sie Lollms. Benötigen Sie auf der Grundlage aktueller Symptome Hinweise darauf, was gesundheitlich auf Sie zukommt? Unsere KI für medizinische Hilfe kann Ihnen dabei helfen, eine mögliche Diagnose zu stellen und Sie bei der Suche nach der richtigen medizinischen Versorgung zu unterstützen. Wenn Sie mit rechtlichen Fragen wie der Vertragsauslegung nicht weiterkommen, können Sie sich gerne an die Anwaltspersönlichkeit wenden, um einen Einblick zu erhalten – und das alles, ohne das gemütliche Zuhause zu verlassen. Es hilft den Schülern nicht nur, sich durch die langen Vorlesungen zu quälen, sondern bietet ihnen auch zusätzliche Unterstützung bei Prüfungen, sodass sie Konzepte richtig erfassen können, anstatt nur zeilenweise zu lesen, was viele hinterher verwirren könnte. Lust auf Unterhaltung? Dann engagieren Sie sich bei Laughter Bot und genießen Sie hysterisches Lachen, bis Ihnen die Tränen aus den Augen rollen, während Sie Dungeons&Dragons spielen, oder erfinden Sie dank des Creative Story Generators gemeinsam verrückte Geschichten. Brauchen Sie Illustrationsarbeiten? Keine Sorge, Artbot ist für uns da! Und nicht zuletzt steht LordOfMusic für die Musikgenerierung nach individuellen Vorgaben zur Verfügung. Verabschieden Sie sich also im Wesentlichen von langweiligen Nächten allein, denn alles Mögliche kann auf einer einzigen Plattform namens Lollms erreicht werden ...
Vielen Dank an alle Benutzer, die dieses Tool getestet und dazu beigetragen haben, es benutzerfreundlicher zu machen.
Wenn Sie Windows verwenden, besuchen Sie einfach die Release-Seite, laden Sie das Windows-Installationsprogramm herunter und installieren Sie es.
Laden Sie das Installationsskript aus dem Skriptordner herunter und führen Sie es aus. Die Installationsskripte sind:
win_install.bat
für Windows.linux_install.sh
für Linux.mac_install.sh
für Mac.Seit Version 9.4 wird von einer manuellen Installation abgeraten, da für viele Dienste die Erstellung einer separaten Umgebung erforderlich ist und lollms die vollständige Kontrolle über die Umgebungen haben muss. Wenn Sie es also mit Ihrem eigenen Conda-Setup installieren, können Sie keinen Dienst installieren und die Verwendung von Lollms auf die Chat-Oberfläche reduzieren (kein XTTS, kein ComfyUI, keine schnelle Generierung durch VLLM oder Petals oder so).
Die Smart-Routing-Funktion von Lollms geht über die bloße Auswahl des richtigen Modells für Genauigkeit hinaus. Es ermöglicht Ihnen, Ihren Texterstellungsprozess im Hinblick auf zwei Schlüsselfaktoren zu optimieren: Geld und Geschwindigkeit .
Optimierung für Geld:
Stellen Sie sich vor, Sie nutzen mehrere Dienste zur Texterstellung zu unterschiedlichen Preisen. Einige Modelle sind möglicherweise außergewöhnlich leistungsstark, haben aber einen hohen Preis, während andere eine preisgünstigere Option mit etwas weniger Leistungsfähigkeit bieten. Mit Smart Routing können Sie diesen Preisunterschied zu Ihrem Vorteil nutzen:
Auf Geschwindigkeit optimieren:
Geschwindigkeit ist ein weiterer entscheidender Faktor bei der Texterstellung, insbesondere bei großen Inhaltsmengen oder zeitkritischen Aufgaben. Mit Smart Routing können Sie die Geschwindigkeit priorisieren, indem Sie:
Beispielhafte Anwendungsfälle:
Abschluss:
Smart Routing ist ein vielseitiges Tool, mit dem Sie Ihren Texterstellungsprozess sowohl hinsichtlich der Kosten als auch der Geschwindigkeit optimieren können. Durch die Nutzung einer Hierarchie von Modellen und die dynamische Anpassung Ihrer Auswahl basierend auf der Komplexität der Eingabeaufforderung können Sie die perfekte Balance zwischen Effizienz, Genauigkeit und Kosteneffizienz erreichen.
Durch die Nutzung dieses Tools erklären sich Benutzer mit der Einhaltung dieser Richtlinien einverstanden:
Bitte beachten Sie, dass lollms webui über keine integrierte Benutzerauthentifizierung verfügt und in erster Linie für die lokale Verwendung konzipiert ist. Wenn die WebUI ohne angemessene Sicherheitsmaßnahmen einem externen Zugriff ausgesetzt wird, kann dies zu potenziellen Sicherheitslücken führen.
Wenn Sie Fernzugriff auf LoLLMs benötigen, wird dringend empfohlen, diese Sicherheitsrichtlinien zu befolgen:
Headless-Modus aktivieren : Durch die Aktivierung des Headless-Modus wird nur die Generierungs-API verfügbar gemacht, während andere potenziell anfällige Endpunkte ausgeschaltet werden. Dies trägt dazu bei, die Angriffsfläche zu minimieren.
Richten Sie einen sicheren Tunnel ein : Richten Sie einen sicheren Tunnel zwischen dem lokalen Host, auf dem LoLLMs ausgeführt werden, und dem Remote-PC ein, der Zugriff benötigt. Dadurch wird sichergestellt, dass die Kommunikation zwischen den beiden Geräten verschlüsselt und geschützt ist.
Konfigurationseinstellungen ändern : Bearbeiten Sie nach dem Einrichten des sicheren Tunnels die Datei /configs/local_config.yaml
und passen Sie die folgenden Einstellungen an:
host : 0.0.0.0 # Allow remote connections
port : 9600 # Change the port number if desired (default is 9600)
force_accept_remote_access : true # Force accepting remote connections
headless_server_mode : true # Set to true for API-only access, or false if the WebUI is needed
Indem Sie diese Sicherheitspraktiken befolgen, können Sie dazu beitragen, Ihre LoLLMs-Instanz und ihre Benutzer vor potenziellen Sicherheitsrisiken zu schützen, wenn Sie den Fernzugriff aktivieren.
Denken Sie daran, dass es wichtig ist, der Sicherheit Priorität einzuräumen und die notwendigen Vorkehrungen zu treffen, um Ihr System und Ihre vertraulichen Informationen zu schützen. Wenn Sie weitere Fragen oder Bedenken bezüglich der Sicherheit von LoLLMs haben, konsultieren Sie bitte die Dokumentation oder wenden Sie sich an die Community, um Hilfe zu erhalten.
Bleiben Sie sicher und genießen Sie den verantwortungsvollen Umgang mit LoLLMs!
Große Sprachmodelle sind erstaunliche Werkzeuge, die für verschiedene Zwecke verwendet werden können. Lollms wurde entwickelt, um diese Leistung zu nutzen und dem Benutzer zu helfen, seine Produktivität zu steigern. Sie müssen jedoch bedenken, dass diese Modelle ihre Grenzen haben und die menschliche Intelligenz oder Kreativität nicht ersetzen, sondern diese vielmehr erweitern sollten, indem sie Vorschläge liefern, die auf Mustern basieren, die in großen Datenmengen gefunden werden. Es liegt an jedem Einzelnen, wie er verantwortungsvoll damit umgeht!
Die Leistung des Systems variiert je nach verwendetem Modell, seiner Größe und dem Datensatz, auf dem es trainiert wurde. Je größer der Trainingssatz eines Sprachmodells (desto mehr Beispiele) ist, desto allgemeiner gesagt werden bei der Verwendung solcher Systeme bessere Ergebnisse erzielt als bei solchen mit kleineren Systemen. Es gibt jedoch immer noch keine Garantie dafür, dass die von einer bestimmten Eingabeaufforderung generierte Ausgabe immer perfekt ist und aus verschiedenen Gründen Fehler enthalten kann. Stellen Sie daher bitte sicher, dass Sie es nicht für ernste Angelegenheiten wie die Auswahl von Medikamenten oder finanzielle Entscheidungen verwenden, ohne vorher einen Experten zu konsultieren!
Dieses Repository verwendet Code unter ApacheLicense Version 2.0. Einzelheiten zu den gewährten Rechten in Bezug auf Nutzung und Verteilung finden Sie in der Lizenzdatei
ParisNeo 2023