提供与 AI 的实时对话,完全在您的 PC 上本地进行,具有可定制的 AI 个性和语音。
提示:任何对最先进的语音解决方案感兴趣的人也请看看 Linguflex 。它可以让你通过说话来控制你的环境,是目前最强大、最复杂的开源助手之一。
注意:如果您遇到“一般综合错误:isin() 收到无效的参数组合”错误,这是由于新的 Transformer 库引入了与 Coqui TTS 的不兼容性(请参阅此处)。请降级到较旧的 Transformer 版本:
pip install transformers==4.38.2
或将 RealtimeTTS 升级到最新版本pip install realtimetts==0.4.1
。
将强大的 Zephyr 7B 语言模型与实时语音转文本和文本转语音库集成,创建快速且引人入胜的基于语音的本地聊天机器人。
提示:如果您在安装 llama.cpp 时遇到问题,请查看我的 LocalEmotionalAIVoiceChat 项目。它包括情感感知的实时文本到语音输出,并具有多个 LLM 提供商选项。您还可以将它与不同的人工智能模型一起使用。
该软件处于实验性 alpha 状态,不提供生产就绪的稳定性。当前用于合成的 XTTS 模型仍然存在故障,而且 Zephyr(虽然对于 7B 模型来说确实很好)当然无法与 GPT 4、Claude 或 Perplexity 的答案质量竞争。
请将此作为提供本地实时聊天机器人的早期版本的首次尝试。
您将需要具有大约 8 GB VRAM 的 GPU 才能实时运行此程序。
NVIDIA CUDA 工具包 11.8 :
适用于 CUDA 11.x 的 NVIDIA cuDNN 8.7.0 :
安装 ROCm v.5.7.1
FFmpeg :
根据您的操作系统安装 FFmpeg:
Ubuntu/Debian :
sudo apt update && sudo apt install ffmpeg
拱门Linux :
sudo pacman -S ffmpeg
macOS(自制) :
brew install ffmpeg
Windows(巧克力) :
choco install ffmpeg
窗户(勺) :
scoop install ffmpeg
克隆存储库或下载源代码包。
安装llama.cpp
(对于 AMD 用户)在下一步之前将环境变量LLAMA_HIPBLAS
值设置为on
官方方式:
pip install llama - cpp - python - - force - reinstall - - upgrade - - no - cache - dir - - verbose
安装实时库
pip install RealtimeSTT == 0.1 . 7
pip install RealtimeTTS == 0.2 . 7
从此处下载 zephyr-7b-beta.Q5_K_M.gguf。
model_path
中。如果发生依赖冲突,请安装冲突库的特定版本:
pip install networkx == 2.8 . 8
pip install typing_extensions == 4.8 . 0
pip install fsspec == 2023.6 . 0
pip install imageio == 2.31 . 6
pip install numpy == 1.24 . 3
pip install requests == 2.31 . 0
python ai_voicetalk_local.py
打开 chat_params.json 更改谈话场景。
如果第一个句子在第二个句子之前被转录,请在 AudioToTextRecorder 上提高 post_speech_silence_duration: AudioToTextRecorder(model="tiny.en", language="en", spinner=False, post_speech_silence_duration = 1.5)
热烈欢迎为增强或改进该项目做出贡献。请随意打开一个拉取请求,其中包含您建议的更改或修复。
该项目采用 Coqui 公共模型许可证 1.0.0。
该许可证仅允许机器学习模型及其输出的非商业用途。
科尔贾·贝格尔
如果您有任何与该项目相关的疑问或支持,请随时联系我们。