Plug-in OpenAI Chat Bot sous Mirai Console
Être basé sur https://chat.openai.com/
OpenAI a actuellement certaines exigences pour l'enregistrement. Veuillez d'abord lire l'enregistrement, puis créer une clé secrète.
Notez qu'il ne s'agit pas Cookie Token
, mais d' api-key
De plus, vous pouvez vous connecter directement et n'avez pas besoin d'un agent. Vous n'avez besoin d'un agent que lors de l'enregistrement d'un compte.
api.openai.com
a été mis sur liste noire. Vous devez configurer le proxy. S'il n'est pas configuré, ce plug-in tentera d'effectuer un traitement spécial. Il peut également être utilisé normalement dans des circonstances normales
L'adresse IP api.openai.com
a été modifiée et une couche de cloudflare
a été appliquée. Le traitement spécial a échoué et la réponse a été 403
- text/html
chat
(chat_prefix) est utilisé pour déclencher le chat par défaut, basé sur le modèle par défaut gpt-3.5-turbo
de /v1/chat/completions
Q&A
(question_prefix) est utilisé pour déclencher Q&A par défaut, basé sur le modèle par défaut /v1/completions
text-davinci-003
Lors de l'activation de la génération d'images, utilisez ?
(image_prefix) par défaut. Lors du déclenchement pour arrêter le chat ou les questions-réponses, stop
est utilisé par défaut pour déclencher le rechargement de la configuration. Par défaut, openai-reload
(reload_prefix) est utilisé pour déclencher. la configuration sera rechargée sans redémarrer Mirai Console
/v1/chat/completions
consomme moins tokens
que /v1/completions
, mais est spécialisé dans le chat. Veuillez faire attention à la différence entre les deux. Si vous devez utiliser GPT4
, veuillez vous référer à la compatibilité du point de terminaison du modèle pour remplacer le modèle.
权限检查
est désactivée par défaut et doit être activée dans la configuration de base (après l'avoir activée, l'ID d'autorisation sera indiqué dans le journal)
prompt
prédéfinie (également appelée contexte ou personnalité)
Exemple d'utilisation chat #猫娘
Pour une configuration personnalisée, veuillez lire la priorité de chargement du contexte prédéfini par défaut spécifié lors du démarrage de la commande ( chat #xxx
) > Valeurs par défaut liées à l'utilisateur > Valeurs par défaut liées au groupe
Depuis la version 1.1.0, la configuration du chat @
trigger a été ajoutée (@ sera incluse lors de la réponse aux messages sur le téléphone mobile, veillez à ne pas le toucher accidentellement)
Depuis la 1.2.0, la fonction chat
est connectée à https://platform.openai.com/docs/api-reference/chat, économisant ainsi l'utilisation
Depuis 1.2.2 Faux SSLSocket
Depuis la version 1.3.0, ajout de l'amarrage du système économique et du contexte prédéfini
Depuis la version 1.3.1, ajoutez quelques configurations pouvant provoquer des bugs.立刻开始聊天
et保持前缀检查
Depuis la 1.4.0, la logique de vérification économique a été modifiée pour vérifier uniquement le solde avant de démarrer le chat.
Depuis la version 1.4.1 Ajouter une référence au préréglage de liaison ~
Depuis la version 1.5.0, ajoutez une configuration pour contrôler la fonction cname
, utilisation : ajoutez -Dxyz.cssxsh.openai.cname=false
dans les paramètres de démarrage Java
chat
Questions et réponses
image
contexte prédéfini
configuration de base d' openai.yml
proxy
prend en charge socks
et http
, par exemple socks://127.0.0.1:7890
completion_prefix
Préfixe de déclenchement de modèle personnalisé, utilisé pour tester les modèles et la consommation, par défaut >
image_prefix
Préfixe du déclencheur de génération d'image, par défaut ?
chat_prefix
préfixe de déclenchement du modèle de chat, chat
par défautquestion_prefix
Préfixe de déclenchement du modèle de questions-réponses, Q&A
par défautreload_prefix
préfixe de déclenchement de configuration de rechargement, openai-reload
par défauteconomy_set_prefix
Préfixe de déclenchement du paramètre d'économie, tokens
par défautbind_set_prefix
définit le préfixe de déclenchement, bind
par défautstop
arrête de discuter ou de questions-réponses, la valeur par défaut est stop
token
Secret Key, le plug-in demandera une entrée lors de son premier démarrage, il n'est donc pas nécessaire de modifier à nouveau le fichier.error_reply
à l'utilisateur lorsqu'une erreur se produit, true
par défautend_reply
à l'utilisateur lorsqu'il arrête de discuter, false
par défautchat_limit
Limite du service de discussionchat_by_at
est déclenché par @
, false
par défauthas_permission
, activée lorsque true
at_once
démarre le chat/Q&A immédiatement (c'est-à-dire qu'il n'enverra pas聊天/问答将开始
, mais suivra directement la commande pour démarrer le chat) La valeur par défaut est false
keep_prefix_check
conserve la vérification du préfixe (c'est-à-dire que le préfixe / @
doit être joint pour déclencher la conversation), la valeur par défaut est false
has_economy
, activé lorsqu'il est true
@see https://github.com/cssxsh/mirai-economy-core configuration détaillée du modèle personnalisé completion.yml
model
modèlemax_tokens
temperature
est extrême, allant de 0.0~2.0
Configuration détaillée du modèle de génération d'image image.yml
number
de photossize
optionnelle est fixe, veuillez ne pas la modifierformat
, veuillez ne pas la modifier configuration détaillée du modèle de chat chat.yml
gpt_model
timeout
attente pour l'heure d'arrêtmax_tokens
temperature
est extrême, allant de 0.0~2.0
question.yml
modèle de questions et réponses configuration détaillée
model
modèletimeout
attente pour l'heure d'arrêtmax_tokens
temperature
est extrême, allant de 0.0~2.0
economy.yml
lié à l’économie
sign_plus_assign
nombre de jetons ajoutés lors de la connexion, par défaut 1024
https://juejin.cn/post/7175153557941780541
Test en ligne
https://platform.openai.com/playground
Exemple officiel
https://platform.openai.com/examples
@voir https://github.com/cssxsh/mirai-economy-core
openai.com
calcule les frais à l'aide tokens
et du nombre de segments de mots (d'une manière générale, plus la phrase est longue, plus les segments de mots sont longs).
Afin d’éviter que certains utilisateurs consomment excessivement tokens
et provoquent l’épuisement du quota.
Après l'amarrage, le système économique calculera le montant tokens
pour chaque utilisateur. Lorsque tokens
disponibles de l'individu sont 0
, la fonction de chat refusera de répondre et de demander.
管理员(未开启权限检查)
ou持有经济权限的用户(已开启权限检查)
peuvent définir des quotas tokens
pour les utilisateurs.
L'utilisation est tokens 114514 @12345
alloue 114514
tokens
à l'utilisateur 12345
Ou tokens 12345
attribuent 114514
tokens
à tous les membres du groupe.
Certaines personnes le décrivent également comme人格
. En fait, cette fonction consiste à indiquer au robot quel rôle vous devez jouer ou quelle fonction vous devez fournir.
Méthode de configuration, créez un nouveau XXX.txt
dans le répertoire de données du plug-in data/xyz.cssxsh.mirai.plugin.mirai-openai-plugin/prompts
Remplissez ensuite le contenu que vous devez prédéfinir
Depuis la 1.5, les contextes tiers seront chargés depuis https://chathub.gg/api/community-prompts, et sont compatibles avec les espaces au format #<充当Linux 终端>
Pour l'utiliser, ajoutez #XXX
après chat
, par exemple chat #猫娘
Ou utilisez bind
pour lier une prompt
par défaut à l'utilisateur actuel, comme bind 猫娘
Lorsque le message est un message de groupe et que l'utilisateur actuel est l'administrateur/propriétaire du groupe, l'objet lié sera群
, c'est-à-dire définir la valeur par défaut pour群
Étant donné que chat
n'activera pas le préréglage de liaison lorsqu'il y a du contenu supplémentaire (le contenu supplémentaire sera traité comme un préréglage), donc pour ajouter une nouvelle fonction, utilisez ~
ou .
pour faire référence au préréglage de liaison, tel que chat ~ ...
Veuillez confirmer que la version de mcl.jar est 2.1.0+
./mcl --update-package xyz.cssxsh.mirai:mirai-openai-plugin --channel maven-stable --type plugins
mirai2.jar
depuis Releases ou Mavenplugins