AnythingLLM: la aplicación de IA todo en uno que estabas buscando.
Chatea con tus documentos, usa agentes de IA, hiperconfigurable, multiusuario y no requiere configuración frustrante.
| | Documentos | Instancia alojada
Inglés · 简体中文 · 日本語
¡AnythingLLM para escritorio (Mac, Windows y Linux)! Descargar ahora
Una aplicación completa que le permite convertir cualquier documento, recurso o contenido en contexto que cualquier LLM puede usar como referencia durante el chat. Esta aplicación le permite elegir qué LLM o base de datos vectorial desea utilizar, además de admitir permisos y administración multiusuario.
AnythingLLM es una aplicación completa en la que puede utilizar LLM comerciales listos para usar o LLM populares de código abierto y soluciones vectorDB para crear un ChatGPT privado sin compromisos que puede ejecutar localmente, así como alojar de forma remota y poder chatear de forma inteligente. con cualquier documento que usted nos proporcione.
AnythingLLM divide sus documentos en objetos llamados workspaces
. Un espacio de trabajo funciona de manera muy similar a un hilo, pero con la adición de contenedores para sus documentos. Los espacios de trabajo pueden compartir documentos, pero no se comunican entre sí, por lo que puede mantener limpio el contexto de cada espacio de trabajo.
Modelos de lenguajes grandes (LLM):
Modelos de embebido:
Modelos de transcripción de audio:
Soporte TTS (texto a voz):
Soporte STT (voz a texto):
Bases de datos vectoriales:
Este monorepo consta de tres secciones principales:
frontend
: una interfaz viteJS + React que puede ejecutar para crear y administrar fácilmente todo el contenido que el LLM puede usar.server
: un servidor express NodeJS para manejar todas las interacciones y realizar toda la gestión de vectorDB y las interacciones LLM.collector
: servidor express NodeJS que procesa y analiza documentos desde la interfaz de usuario.docker
: instrucciones de Docker y proceso de compilación + información para compilar desde la fuente.embed
: Submódulo para la generación y creación del widget de inserción web.browser-extension
: submódulo para la extensión del navegador Chrome. Mintplex Labs y la comunidad mantienen una serie de métodos de implementación, scripts y plantillas que puede utilizar para ejecutar AnythingLLM localmente. Consulte la siguiente tabla para leer cómo implementar en su entorno preferido o implementar automáticamente.
Estibador | AWS | PCG | Océano digital | render.com |
---|---|---|---|---|
![]() | ![]() |
Ferrocarril | RepoCloud | elestio |
---|---|---|
o configurar una instancia de producción de AnythingLLM sin Docker →
yarn setup
Para completar los archivos .env
requeridos, necesitará en cada una de las secciones de la aplicación (desde la raíz del repositorio).server/.env.development
esté lleno o, de lo contrario, las cosas no funcionarán correctamente.yarn dev:server
Para iniciar el servidor localmente (desde la raíz del repositorio).yarn dev:frontend
Para iniciar la interfaz localmente (desde la raíz del repositorio).yarn dev:collector
Para luego ejecutar el recopilador de documentos (desde la raíz del repositorio).Más información sobre documentos
Más información sobre el almacenamiento en caché de vectores
AnythingLLM de Mintplex Labs Inc contiene una función de telemetría que recopila información de uso anónima.
Usamos esta información para ayudarnos a comprender cómo se usa AnythingLLM, para ayudarnos a priorizar el trabajo en nuevas funciones y correcciones de errores, y para ayudarnos a mejorar el rendimiento y la estabilidad de AnythingLLM.
Establezca DISABLE_TELEMETRY
en la configuración de su servidor o docker .env en "verdadero" para optar por no recibir telemetría. También puedes hacer esto en la aplicación yendo a la barra lateral > Privacy
y desactivando la telemetría.
Solo realizaremos un seguimiento de los detalles de uso que nos ayuden a tomar decisiones sobre productos y hojas de ruta, específicamente:
Puede verificar estas afirmaciones buscando todas las ubicaciones a las que se llama Telemetry.sendTelemetry
. Además, estos eventos se escriben en el registro de salida para que también pueda ver los datos específicos que se enviaron, si están habilitados. No se recopila ninguna IP u otra información de identificación. El proveedor de telemetría es PostHog, un servicio de recopilación de telemetría de código abierto.
Ver todos los eventos de telemetría en el código fuente
<issue number>-<short name>
Copyright © 2024 Laboratorios Mintplex.
Este proyecto tiene licencia del MIT.