AnythingLLM : l'application d'IA tout-en-un que vous recherchiez.
Discutez avec vos documents, utilisez des agents IA, hyper-configurables, multi-utilisateurs et aucune configuration frustrante n'est requise.
| | Documents | Instance hébergée
Anglais · 简体中文 · 日本語
AnythingLLM pour ordinateur de bureau (Mac, Windows et Linux) ! Télécharger maintenant
Une application complète qui vous permet de transformer n'importe quel document, ressource ou élément de contenu en un contexte que n'importe quel LLM peut utiliser comme références lors de discussions. Cette application vous permet de choisir le LLM ou la base de données vectorielles que vous souhaitez utiliser, ainsi que de prendre en charge la gestion et les autorisations multi-utilisateurs.
AnythingLLM est une application complète dans laquelle vous pouvez utiliser des LLM commerciaux ou des LLM open source populaires et des solutions vectorDB pour créer un ChatGPT privé sans compromis que vous pouvez exécuter localement, héberger à distance et pouvoir discuter intelligemment. avec tous les documents que vous lui fournissez.
AnythingLLM divise vos documents en objets appelés workspaces
. Un espace de travail fonctionne un peu comme un fil de discussion, mais avec en plus la conteneurisation de vos documents. Les espaces de travail peuvent partager des documents, mais ils ne communiquent pas entre eux afin que vous puissiez garder votre contexte propre pour chaque espace de travail.
Grands modèles de langage (LLM) :
Modèles d'intégration :
Modèles de transcription audio :
Prise en charge TTS (texte-parole) :
Prise en charge STT (parole en texte) :
Bases de données vectorielles :
Ce monorepo se compose de trois sections principales :
frontend
: Une interface viteJS + React que vous pouvez exécuter pour créer et gérer facilement tout votre contenu que le LLM peut utiliser.server
: Un serveur express NodeJS pour gérer toutes les interactions et effectuer toute la gestion vectorDB et les interactions LLM.collector
: serveur express NodeJS qui traite et analyse les documents de l'interface utilisateur.docker
: instructions Docker et processus de construction + informations pour la construction à partir des sources.embed
: Sous-module de génération & création du widget web embed.browser-extension
: Sous-module pour l'extension du navigateur Chrome. Mintplex Labs et la communauté gèrent un certain nombre de méthodes de déploiement, de scripts et de modèles que vous pouvez utiliser pour exécuter AnythingLLM localement. Reportez-vous au tableau ci-dessous pour savoir comment déployer sur votre environnement préféré ou déployer automatiquement.
Docker | AWS | GCP | Océan numérique | Render.com |
---|---|---|---|---|
![]() | ![]() |
Chemin de fer | RepoCloud | Elestio |
---|---|---|
ou configurer une instance de production AnythingLLM sans Docker →
yarn setup
Pour remplir les fichiers .env
requis dont vous aurez besoin dans chacune des sections de l'application (à partir de la racine du dépôt).server/.env.development
est rempli, sinon les choses ne fonctionneront pas correctement.yarn dev:server
Pour démarrer le serveur localement (à partir de la racine du dépôt).yarn dev:frontend
Pour démarrer le frontend localement (à partir de la racine du dépôt).yarn dev:collector
Pour ensuite exécuter le collecteur de documents (à partir de la racine du dépôt).En savoir plus sur les documents
En savoir plus sur la mise en cache vectorielle
AnythingLLM de Mintplex Labs Inc contient une fonction de télémétrie qui collecte des informations d'utilisation anonymes.
Nous utilisons ces informations pour nous aider à comprendre comment AnythingLLM est utilisé, pour nous aider à prioriser le travail sur les nouvelles fonctionnalités et les corrections de bogues, et pour nous aider à améliorer les performances et la stabilité d'AnythingLLM.
Définissez DISABLE_TELEMETRY
dans les paramètres de votre serveur ou docker .env sur "true" pour désactiver la télémétrie. Vous pouvez également le faire dans l'application en accédant à la barre latérale > Privacy
et en désactivant la télémétrie.
Nous suivrons uniquement les détails d'utilisation qui nous aident à prendre des décisions concernant les produits et la feuille de route, en particulier :
Vous pouvez vérifier ces affirmations en recherchant tous les emplacements appelés Telemetry.sendTelemetry
. De plus, ces événements sont écrits dans le journal de sortie afin que vous puissiez également voir les données spécifiques qui ont été envoyées - si elles sont activées. Aucune adresse IP ou autre information d’identification n’est collectée. Le fournisseur de télémétrie est PostHog, un service de collecte de télémétrie open source.
Afficher tous les événements de télémétrie dans le code source
<issue number>-<short name>
Copyright © 2024 Laboratoires Mintplex.
Ce projet est sous licence MIT.