AnythingLLM:您正在寻找的一体化人工智能应用程序。
与您的文档聊天,使用人工智能代理,超可配置,多用户,并且不需要令人沮丧的设置。
| |文档 |托管实例
英语· 简体中文 · 日本语
AnythingLLM 桌面版(Mac、Windows 和 Linux)!立即下载
一个全栈应用程序,使您能够将任何文档、资源或内容片段转换为任何法学硕士可以在聊天期间用作参考的上下文。该应用程序允许您选择要使用的法学硕士或矢量数据库,并支持多用户管理和权限。
AnythingLLM 是一个全栈应用程序,您可以使用商业现成的 LLM 或流行的开源 LLM 和 vectorDB 解决方案来构建私有 ChatGPT,无需任何妥协,您可以在本地运行,也可以远程托管并能够智能聊天以及您提供的任何文件。
AnythingLLM 将您的文档划分为称为workspaces
对象。工作区的功能很像线程,但增加了文档的容器化。工作区可以共享文档,但它们不会相互通信,因此您可以保持每个工作区的上下文干净。
大型语言模型(LLM):
包埋机型号:
音频转录模型:
TTS(文本转语音)支持:
STT(语音转文本)支持:
矢量数据库:
这个 monorepo 包含三个主要部分:
frontend
:一个 viteJS + React 前端,您可以运行它来轻松创建和管理 LLM 可以使用的所有内容。server
:一个 NodeJS Express 服务器,用于处理所有交互并执行所有 vectorDB 管理和 LLM 交互。collector
:NodeJS Express 服务器,用于处理和解析来自 UI 的文档。docker
:Docker 说明和构建过程+从源代码构建的信息。embed
:用于生成和创建 Web 嵌入小部件的子模块。browser-extension
:chrome 浏览器扩展的子模块。 Mintplex 实验室和社区维护着许多部署方法、脚本和模板,您可以使用它们在本地运行 AnythingLLM。请参阅下表了解如何在您的首选环境中部署或自动部署。
码头工人 | AWS | GCP | 数字海洋 | 渲染网 |
---|---|---|---|---|
铁路 | 回购云 | 埃莱斯蒂奥 |
---|---|---|
或在没有 Docker 的情况下设置生产 AnythingLLM 实例 →
.env
yarn setup
,您需要在每个应用程序部分(从存储库的根目录)。server/.env.development
已填充,否则将无法正常工作。yarn dev:server
在本地启动服务器(从存储库的根目录)。yarn dev:frontend
在本地启动前端(从存储库的根目录)。yarn dev:collector
(从存储库的根目录)。了解文档
了解矢量缓存
Mintplex Labs Inc 的 AnythingLLM 包含收集匿名使用信息的遥测功能。
我们使用这些信息来帮助我们了解 AnythingLLM 的使用方式,帮助我们确定新功能和错误修复工作的优先级,并帮助我们提高 AnythingLLM 的性能和稳定性。
将服务器或 docker .env 设置中的DISABLE_TELEMETRY
设置为“true”以选择退出遥测。您还可以在应用程序内执行此操作,方法是转到侧边栏 > Privacy
并禁用遥测。
我们只会跟踪有助于我们做出产品和路线图决策的使用详细信息,特别是:
您可以通过查找所有调用Telemetry.sendTelemetry
的位置来验证这些声明。此外,这些事件会写入输出日志,因此您还可以查看发送的特定数据(如果启用)。不会收集 IP 或其他识别信息。遥测提供者是 PostHog - 一个开源遥测收集服务。
查看源代码中的所有遥测事件
-
版权所有 © 2024 Mintplex 实验室。
该项目已获得麻省理工学院许可。