AnythingLLM: Die All-in-One-KI-App, nach der Sie gesucht haben.
Chatten Sie mit Ihren Dokumenten, verwenden Sie KI-Agenten, hyperkonfigurierbar, für mehrere Benutzer geeignet und keine frustrierende Einrichtung erforderlich.
| | Dokumente | Gehostete Instanz
Englisch · 简体中文 · 日本語
AnythingLLM für Desktop (Mac, Windows und Linux)! Jetzt herunterladen
Eine Full-Stack-Anwendung, mit der Sie jedes Dokument, jede Ressource oder jeden Inhalt in einen Kontext umwandeln können, den jeder LLM beim Chatten als Referenz verwenden kann. Mit dieser Anwendung können Sie auswählen, welche LLM- oder Vector-Datenbank Sie verwenden möchten, und außerdem die Verwaltung und Berechtigungen mehrerer Benutzer unterstützen.
AnythingLLM ist eine Full-Stack-Anwendung, bei der Sie kommerzielle Standard-LLMs oder beliebte Open-Source-LLMs und vectorDB-Lösungen verwenden können, um ein privates ChatGPT ohne Kompromisse zu erstellen, das Sie sowohl lokal ausführen als auch remote hosten und intelligent chatten können mit allen von Ihnen bereitgestellten Dokumenten.
AnythingLLM unterteilt Ihre Dokumente in Objekte, die als workspaces
bezeichnet werden. Ein Arbeitsbereich funktioniert ähnlich wie ein Thread, verfügt jedoch zusätzlich über die Containerisierung Ihrer Dokumente. Arbeitsbereiche können Dokumente gemeinsam nutzen, sie kommunizieren jedoch nicht miteinander, sodass Sie Ihren Kontext für jeden Arbeitsbereich sauber halten können.
Große Sprachmodelle (LLMs):
Embedder-Modelle:
Audiotranskriptionsmodelle:
TTS-Unterstützung (Text-to-Speech):
STT-Unterstützung (Speech-to-Text):
Vektordatenbanken:
Dieses Monorepo besteht aus drei Hauptabschnitten:
frontend
: Ein viteJS + React-Frontend, das Sie ausführen können, um alle Ihre Inhalte, die das LLM verwenden kann, einfach zu erstellen und zu verwalten.server
: Ein NodeJS-Express-Server, der alle Interaktionen abwickelt und alle vectorDB-Verwaltung und LLM-Interaktionen durchführt.collector
: NodeJS-Express-Server, der Dokumente von der Benutzeroberfläche verarbeitet und analysiert.docker
: Docker-Anweisungen und Build-Prozess + Informationen zum Erstellen aus dem Quellcode.embed
: Submodul zur Generierung und Erstellung des Web-Einbettungs-Widgets.browser-extension
: Submodul für die Chrome-Browsererweiterung. Mintplex Labs und die Community unterhalten eine Reihe von Bereitstellungsmethoden, Skripten und Vorlagen, die Sie zum lokalen Ausführen von AnythingLLM verwenden können. In der folgenden Tabelle erfahren Sie, wie Sie die Bereitstellung in Ihrer bevorzugten Umgebung oder die automatische Bereitstellung durchführen.
Docker | AWS | GCP | Digitaler Ozean | Render.com |
---|---|---|---|---|
![]() | ![]() |
Eisenbahn | RepoCloud | Elestio |
---|---|---|
oder richten Sie eine Produktionsinstanz von AnythingLLM ohne Docker ein →
yarn setup
Zum Ausfüllen der erforderlichen .env
Dateien benötigen Sie in jedem Anwendungsabschnitt (vom Stammverzeichnis des Repos).server/.env.development
gefüllt ist, sonst funktionieren die Dinge nicht richtig.yarn dev:server
Zum lokalen Booten des Servers (vom Stammverzeichnis des Repositorys).yarn dev:frontend
Um das Frontend lokal zu starten (vom Stammverzeichnis des Repos).yarn dev:collector
Um dann den Dokumentenkollektor auszuführen (vom Stammverzeichnis des Repos).Erfahren Sie mehr über Dokumente
Erfahren Sie mehr über Vektor-Caching
AnythingLLM von Mintplex Labs Inc enthält eine Telemetriefunktion, die anonyme Nutzungsinformationen sammelt.
Wir verwenden diese Informationen, um zu verstehen, wie AnythingLLM verwendet wird, um die Arbeit an neuen Funktionen und Fehlerbehebungen zu priorisieren und um die Leistung und Stabilität von AnythingLLM zu verbessern.
Setzen Sie DISABLE_TELEMETRY
in Ihren Server- oder Docker-.env-Einstellungen auf „true“, um die Telemetrie zu deaktivieren. Sie können dies auch in der App tun, indem Sie in der Seitenleiste auf Privacy
klicken und die Telemetrie deaktivieren.
Wir verfolgen nur Nutzungsdetails, die uns bei Produkt- und Roadmap-Entscheidungen helfen, insbesondere:
Sie können diese Behauptungen überprüfen, indem Sie alle Standorte ermitteln, an denen Telemetry.sendTelemetry
aufgerufen wird. Zusätzlich werden diese Ereignisse in das Ausgabeprotokoll geschrieben, sodass Sie auch die spezifischen Daten sehen können, die gesendet wurden – sofern aktiviert. Es werden keine IP-Adressen oder andere identifizierende Informationen erfasst. Der Telemetrieanbieter ist PostHog – ein Open-Source-Telemetrie-Sammeldienst.
Alle Telemetrieereignisse im Quellcode anzeigen
<issue number>-<short name>
Copyright © 2024 Mintplex Labs.
Dieses Projekt ist MIT-lizenziert.