Dies ist ein einfacher Matrix-Bot, der die Verwendung der OpenAI-API Langchain unterstützt, um Antworten aus Benutzereingaben zu generieren. Der Bot reagiert auf die folgenden Befehle: !gpt
, !chat
, !v
, !pic
, !new
, !lc
und !help
abhängig vom ersten Wort der Eingabeaufforderung.
Docker-Methode (empfohlen):
Bearbeiten Sie config.json
oder .env
mit den richtigen Werten
Erläuterungen und eine vollständige Parameterliste finden Sie unter: https://github.com/hibobmaster/matrix_chatgpt_bot/wiki
Erstellen Sie zwei leere Dateien, nur für die persistente Datenbank
touch sync_db context.db manage_db
sudo docker compose up -d
manage_db (kann ignoriert werden) ist für den Langchain-Agenten, sync_db ist für die Matrix-Synchronisierungsdatenbank, context.db ist für den Bot-Chat-Kontext
libolm-dev
git clone https://github.com/hibobmaster/matrix_chatgpt_bot.git
python -m venv venv
source venv/bin/activate
pip install -U pip setuptools wheel
pip install -r requirements.txt
room_id
: Der Bot funktioniert in dem Raum, in dem er sich befindet {
"homeserver" : " YOUR_HOMESERVER " ,
"user_id" : " YOUR_USER_ID " ,
"password" : " YOUR_PASSWORD " ,
"device_id" : " YOUR_DEVICE_ID " ,
"room_id" : " YOUR_ROOM_ID " ,
"openai_api_key" : " YOUR_API_KEY " ,
"gpt_api_endpoint" : " xxxxxxxxx "
}
python src/main.py
Um mit dem Bot zu interagieren, senden Sie einfach eine Nachricht mit einer der folgenden Aufforderungen an den Bot im Matrix-Raum:
!help
Hilfemeldung
!gpt
So generieren Sie eine einmalige Antwort:
!gpt What is the meaning of life?
!chat
Zum Chatten über die offizielle API mit Kontextkonversation !chat Can you tell me a joke?
Sie können auf den Screenshot verweisen
Room Level: quote a image and @bot + {prompt}
Thread Level: quote a image with a {prompt}
!lc
Zum Chatten mit dem Langchain-API-Endpunkt !lc All the world is a stage
!pic
Um ein Bild mit openai DALL·E oder LocalAI zu generieren !pic A bridal bouquet made of succulents
!agent
zeigt den Langchain-Agenten an oder legt ihn fest !agent list
!agent use {agent_name}
!new + {chat}
Starten Sie eine neue KonversationLangChain(flowise)-Administrator: https://github.com/hibobmaster/matrix_chatgpt_bot/wiki/Langchain-(flowise)
https://github.com/hibobmaster/matrix_chatgpt_bot/wiki/
Raumebene:
Thread-Level:
Erwähnen Sie den Bot mit der Eingabeaufforderung. Der Bot wird im Thread antworten.
Um den Kontext beizubehalten, senden Sie einfach die Eingabeaufforderung direkt im Thread, ohne es zu erwähnen.