OpenAI Chat Bot-Plug-in unter Mirai Console
Basieren Sie auf https://chat.openai.com/
OpenAI hat derzeit bestimmte Anforderungen für die Registrierung. Bitte lesen Sie zuerst die Registrierung und erstellen Sie dann einen geheimen Schlüssel.
Beachten Sie, dass es sich nicht um Cookie Token
, sondern um api-key
handelt Darüber hinaus können Sie eine direkte Verbindung herstellen und benötigen keinen Agenten. Sie benötigen nur einen Agenten, wenn Sie ein Konto registrieren.
api.openai.com
wurde auf die schwarze Liste gesetzt. Wenn der Proxy nicht konfiguriert ist, versucht er, eine spezielle Verarbeitung durchzuführen. Es kann auch unter normalen Umständen normal verwendet werden
Die IP-Adresse api.openai.com
wurde geändert und eine cloudflare
-Ebene angewendet. Die spezielle Verarbeitung schlug fehl und die Antwort war 403
– text/html
chat
(chat_prefix) wird standardmäßig zum Auslösen des Chats verwendet, basierend auf dem Standardmodell gpt-3.5-turbo
von /v1/chat/completions
Q&A
(question_prefix) wird standardmäßig verwendet, um Fragen und Antworten auszulösen, basierend auf dem /v1/completions
Standardmodell text-davinci-003
Wenn Sie die Bildgenerierung aktivieren, verwenden Sie standardmäßig ?
(image_prefix), um den Chat oder die Frage-und-Antwort-Funktion zu stop
. Standardmäßig wird openai-reload
“ (reload_prefix) zum Auslösen verwendet Die Konfiguration wird neu geladen, ohne dass Mirai Console
/v1/chat/completions
verbraucht weniger tokens
als /v1/completions
, ist aber auf den Chat spezialisiert. Wenn Sie GPT4
verwenden müssen, lesen Sie bitte den Abschnitt „Modellendpunktkompatibilität“, um das Modell zu ersetzen.
权限检查
ist standardmäßig deaktiviert und muss in der Grundkonfiguration aktiviert werden (nach dem Einschalten wird die Berechtigungs-ID im Protokoll angegeben).
Voreingestellte prompt
(auch Kontext oder Persönlichkeit genannt)
Anwendungsbeispiel chat #猫娘
Für eine benutzerdefinierte Konfiguration lesen Sie bitte die Ladepriorität des voreingestellten Kontextstandards, der beim Starten des Befehls angegeben wurde ( chat #xxx
) > Benutzergebundene Standardwerte > Gruppengebundene Standardwerte
Seit 1.1.0 wurde @
-Trigger-Chat-Konfiguration hinzugefügt (@ wird beim Beantworten von Nachrichten auf dem Mobiltelefon einbezogen, bitte achten Sie darauf, es nicht versehentlich zu berühren)
Seit 1.2.0 ist die chat
Funktion mit https://platform.openai.com/docs/api-reference/chat verbunden, was die Nutzung spart
Seit 1.2.2 Fake SSLSocket
Seit 1.3.0 wurde das Andocken des Wirtschaftssystems und der voreingestellte Kontext hinzugefügt
Fügen Sie seit 1.3.1 einige Konfigurationen hinzu, die Fehler verursachen können.立刻开始聊天
und保持前缀检查
Seit 1.4.0 wurde die Wirtschaftsprüfungslogik dahingehend geändert, dass vor dem Start des Chats nur noch der Kontostand überprüft wird.
Seit 1.4.1 Verweis auf Bindungsvoreinstellung ~
hinzufügen
Seit 1.5.0 Konfiguration hinzugefügt, um cname
Funktion zu steuern, Verwendung: -Dxyz.cssxsh.openai.cname=false
in Java
-Startparametern hinzufügen
chatten
Fragen und Antworten
Bild
voreingestellten Kontext
Grundkonfiguration openai.yml
proxy
Protokoll unterstützt socks
und http
, zum Beispiel socks://127.0.0.1:7890
completion_prefix
Benutzerdefiniertes Modell-Trigger-Präfix, wird zum Testen von Modellen und Verbrauch verwendet, Standard >
image_prefix
Bildgenerierungs-Trigger-Präfix, Standard ?
chat_prefix
Chat-Modell-Trigger-Präfix, Standard- chat
question_prefix
Q&A-Modell-Trigger-Präfix, Standard- Q&A
reload_prefix
Konfigurations-Trigger-Präfix neu laden, Standard openai-reload
economy_set_prefix
Economy-Einstellungs-Trigger-Präfix, Standard- tokens
bind_set_prefix
Bindung legt Triggerpräfix fest, bind
stop
stoppt den Chat oder die Frage-und-Antwort-Runde, die Standardeinstellung ist stop
token
Secret Key fragt das Plug-in beim ersten Start nach einer Eingabe, sodass die Datei nicht erneut bearbeitet werden muss.error_reply
Sie dem Benutzer, wenn ein Fehler auftritt, standardmäßig true
end_reply
an den Benutzer beim Beenden des Chats, Standardeinstellung: false
chat_limit
Chat-Dienstlimitchat_by_at
Chat-Modell wird durch @
ausgelöst, Standardwert ist false
has_permission
Berechtigungsprüfung, aktiviert, wenn true
at_once
startet den Chat/die Frage-und-Antwort-Runde sofort (d. h.聊天/问答将开始
gesendet, sondern folgt direkt dem Befehl, um den Chat zu starten). Der Standardwert ist false
keep_prefix_check
behält die Präfixprüfung bei (das heißt, das Präfix / @
muss angehängt werden, um die Konversation auszulösen), der Standardwert ist false
has_economy
Wirtschaftssystem, aktiviert, wenn true
@siehe https://github.com/cssxsh/mirai-economy-core Detaillierte Konfiguration des benutzerdefinierten Modells completion.yml
.
model
max_tokens
Antwortlängetemperature
ist extrem und liegt zwischen 0.0~2.0
Detaillierte Konfiguration des Bildgenerierungsmodells image.yml
number
der Bildersize
ist festgelegt, bitte ändern Sie ihn nichtformat
Download-Methode nicht Detaillierte Konfiguration des Chat-Modells chat.yml
gpt_model
-Modelltimeout
Warten auf Stoppzeitmax_tokens
Antwortlängetemperature
ist extrem und liegt zwischen 0.0~2.0
Detaillierte Konfiguration des Frage- und Antwortmodells question.yml
model
timeout
Warten auf Stoppzeitmax_tokens
Antwortlängetemperature
ist extrem und liegt zwischen 0.0~2.0
economy.yml
wirtschaftsbezogen
sign_plus_assign
Anzahl der durch die Anmeldung hinzugefügten Token, Standard 1024
https://juejin.cn/post/7175153557941780541
Online-Test
https://platform.openai.com/playground
Offizielles Beispiel
https://platform.openai.com/examples
@siehe https://github.com/cssxsh/mirai-economy-core
openai.com
berechnet die Gebühr anhand von tokens
und der Anzahl der Wortsegmente (im Allgemeinen gilt: Je länger der Satz, desto länger die Wortsegmente).
Um zu verhindern, dass einige Benutzer übermäßig tokens
verbrauchen und das Kontingent erschöpft wird.
Nach dem Andocken berechnet das Wirtschaftssystem den tokens
-Betrag für jeden Benutzer. Wenn die verfügbaren tokens
des Einzelnen 0
sind, verweigert die Chat-Funktion eine Antwort.
管理员(未开启权限检查)
oder持有经济权限的用户(已开启权限检查)
können tokens
Kontingente für Benutzer festlegen.
Die Verwendung beträgt tokens 114514 @12345
weist Benutzer 12345
114514
tokens
zu
Oder tokens 12345
weisen allen Gruppenmitgliedern 114514
tokens
zu.
Manche Leute beschreiben es auch als人格
. Tatsächlich besteht diese Funktion darin, dem Roboter mitzuteilen, welche Rolle Sie spielen oder welche Funktion Sie bereitstellen müssen.
Bei der Konfigurationsmethode erstellen Sie eine neue XXX.txt
im Plug-in-Datenverzeichnis data/xyz.cssxsh.mirai.plugin.mirai-openai-plugin/prompts
Geben Sie dann den Inhalt ein, den Sie voreinstellen möchten
Seit 1.5 werden Kontexte von Drittanbietern von https://chathub.gg/api/community-prompts geladen und sind mit Leerzeichen im Format #<充当Linux 终端>
kompatibel
Hängen Sie zur Verwendung #XXX
nach chat
an, zum Beispiel chat #猫娘
Oder verwenden Sie bind
, um eine prompt
an den aktuellen Benutzer zu binden, z. B. bind 猫娘
Wenn es sich bei der Nachricht um eine Gruppennachricht handelt und der aktuelle Benutzer der Administrator/Gruppenbesitzer ist, ist das gebundene Objekt群
, d. h. es wird der Standardwert für群
festgelegt
Da chat
die Bindungsvoreinstellung nicht aktiviert, wenn zusätzlicher Inhalt vorhanden ist (der zusätzliche Inhalt wird als Voreinstellung behandelt), verwenden Sie zum Hinzufügen einer neuen Funktion ~
oder .
um auf die Bindungsvoreinstellung zu verweisen, z. B. chat ~ ...
Bitte bestätigen Sie, dass die Version von mcl.jar 2.1.0+ ist
./mcl --update-package xyz.cssxsh.mirai:mirai-openai-plugin --channel maven-stable --type plugins
mirai2.jar
von Releases oder Maven herunterplugins
-Ordner