AI Companion是一个项目,旨在提供一种快速、简单、轻便、方便的方式在本地计算机上创建AI聊天机器人,它不需要任何外部API,安装任何库,您只需安装与您的操作相对应的二进制文件系统和设备,下载所选模型,您就可以开始使用该工具:用于与 LLM 聊天的 WebUI、用于与 AI 角色进行角色扮演的 WebUI,或用作需要 AI 聊天机器人的其他项目的 API。
该项目包括许多独特的功能,例如短期记忆、CUDA、OpenCL 和 Metal 支持、长期记忆、对话调整、时间识别、通过聊天学习、作为 REST API 工作的能力、读取字符卡、轻松学习使用 WebUI 允许您编辑数据、编辑配置、发送、编辑和删除消息。
从这里下载适合您的操作系统和设备的二进制文件(例如ai-companion-windows-cuda.exe ),然后安装扩展名为.gguf 的llm 模型(例如这个),然后启动 ai-companion 二进制文件,打开您的网络浏览器http://localhost:3000 ,您将看到 AI Companion WebUI,接下来单击网站上的齿轮图标,转到config ,并将Path to your Large Language Model (LLM)替换为路径添加到您驱动器上的.gguf模型,完成后,您就可以开始与您的同伴聊天了!
经过测试和工作的人工智能模型的小列表:
以及许多其他 .gguf 格式的 LLM 模型
API 文档可以在这里找到
如果您正在寻找一个允许您在项目中使用 ai-companion 后端的 Python 库,可以在此处找到 ai-companion-py
要构建可执行文件,您需要:Node.js 和 npm、Rust 和 Cargo
要使软件与 CUDA、OpenCL 和 Metal 配合使用,您还必须遵循与本文档中类似的步骤
创建存储库的 git 克隆:
git clone https://github.com/Hukasx0/ai-companion
转到文件夹
cd ai-companion/
安装节点模块
npm i
将所有内容编译成一个二进制文件
npm run build-full
或者
使用 CUDA 支持将所有内容编译为一个二进制文件
npm run build-full-cuda
或者
使用 OpenCL 支持将所有内容编译为一个二进制文件
npm run build-full-opencl
或者
使用 Metal 支持将所有内容编译为一个二进制文件
npm run build-full-metal
(编译后,二进制文件应位于 ai-companion/backend/target/release 中)
然后进行与安装相同的操作