Chinois |
Accès de modèle multiplateforme, formats de sortie évolutifs et multiples, plug-in robot fournissant des services de chat de modèle grand langage.
État du projet: Itéré régulièrement à la version officielle de 1.0 (actuellement entré dans l'étape du candidat de la version)
Préréglages | Mode plug-in et sortie de streaming | Sortie de rendu d'image |
---|---|---|
Nous pouvons installer ce plug-in directement sous Koishi pour utiliser des fonctions de base sans configuration supplémentaire.
Lisez ce document pour en savoir plus.
Nous prenons actuellement en charge les modèles / plateformes suivants:
Modèle / plate-forme | Méthode d'accès | caractéristiques | Choses à noter |
---|---|---|---|
Openai | Client local, accès officiel API | Personnalité personnalisable, mode plug-in / navigation de support et autres modes de chat | L'accès à l'API est facturé |
Azure Openai | Client local, accès officiel API | Personnalité personnalisable, mode plug-in / navigation de support et autres modes de chat | L'accès à l'API est facturé |
Google Gemini | Client local, accès officiel API | Vitesse rapide, les performances dépassent GPT-3.5 | Besoin d'avoir un compte d'accès Gemini et peut facturer |
API Claude | Client local, accès officiel API | Un contexte extrêmement important, dans la plupart des cas, il peut dépasser le GPT 3.5, nécessite une clé API, les charges | Peut être coûteux et ne prend pas en charge l'appel de fonction |
Questions Tongyi Qian | Client local, accès officiel API | Ali produit des modèles domestiques avec des quotas gratuits | L'effet de mesure réel est légèrement meilleur que celui de Zhishu |
Sagesse | Client local, accès officiel API | ChatGlm, les nouveaux arrivants peuvent obtenir un quota de jeton gratuit | L'effet de test réel est légèrement meilleur que Iflytek Spark |
Iflytek Spark | Client local, accès officiel API | Modèle domestique, les nouveaux arrivants peuvent obtenir un quota de jeton gratuit | L'effet mesuré réel est approximativement égal à GPT 3.5 |
Les paroles de Wen Xin | Client local, accès officiel API | Modèle de modèle de la série Baidu | L'effet de test réel est légèrement pire que Iflytek Spark |
Hunyuan Big Model | Client local, accès officiel API | Tencent Series de grands modèles | L'effet de test réel est meilleur que Wen Xinyiyan |
Ollla | Client local, accès API construit | La collection de modèles open source bien connue, prend en charge le déploiement hybride CPU / GPU, peut être construit localement | Vous devez créer votre propre API backend et nécessiter certaines configurations |
Gpt gratuit | Client local, accès officiel API | Le transfert local utilise des modèles GPT d'autres sites Web, Project configure automatiquement des sites Web, etc. Sans enregistrement manuel requis | Peut échouer à tout moment et être instable |
Chatglm | Client local, accès API backend auto-construit | Peut être construit localement, l'arrondi est exempt d'argent | Vous devez créer votre propre API backend, qui nécessite certaines configurations. |
Rwkv | Client local, accès API construit | Modèle open source bien connu, peut être construit localement | Vous devez créer votre propre API backend et nécessiter certaines configurations |
Nous prenons en charge le modèle pour fournir des capacités de recherche de réseau:
À partir de la version 1.0.0-alpha.10
, nous utilisons des préréglages plus personnalisables. Le nouveau préréglage de la personnalité utilise YAML comme fichier de configuration.
Vous pouvez cliquer ici pour afficher notre fichier de personnalité qui est livré par défaut: Catgirl.yml
Notre chemin de dossier prédéfini par défaut est你当前运行插件的koishi 目录的路径+/data/chathub/presets
.
Tous les fichiers prédéfinis sont chargés à partir du dossier ci-dessus. Par conséquent, vous pouvez ajouter et modifier librement les fichiers prédéfinis dans ce dossier, puis utiliser la commande pour changer de personnalité des préréglages.
Pour plus d'informations, veuillez consulter ce document.
Exécutez les instructions suivantes sur n'importe quel projet de modèle Koishi pour cloner chatluna:
# yarn
yarn clone ChatLunaLab/chatluna
# npm
npm run clone ChatLunaLab/chatluna
Vous pouvez remplacer ChatLunaLab/chatluna-koishi
par votre propre adresse de projet après Fork.
Modifiez ensuite le fichier tsconfig.json
dans le répertoire racine du projet de modèle et ajoutez le chemin du projet Chatluna dans compilerOptions.paths
.
{
"extends" : " ./tsconfig.base " ,
"compilerOptions" : {
"baseUrl" : " . " ,
"paths" : {
"koishi-plugin-chatluna-*" : [ " external/chatluna/packages/*/src " ]
}
}
}
Étant donné que le projet lui-même est complexe, l'utilisation initiale doit être construite une fois.
# yarn
yarn workspace @root/chatluna-koishi build
# npm
npm run build -w @root/chatluna-koishi
Finition! Maintenant, vous pouvez démarrer le projet de modèle avec yarn dev
ou npm run dev
dans le projet racine et développer deux fois Chatluna.
Bien que Koishi prend en charge le remplacement à chaud du module (HMR), ce projet peut ne pas être entièrement compatible.
Si vous avez un bogue lorsque vous utilisez HMR pour développer ce projet, veuillez le soulever en problème et suivre les étapes ci-dessus pour reconstruire le projet et redémarrer Koishi pour essayer de le réparer.
Actuellement, la capacité de production de l'équipe du projet Chatluna est extrêmement rare, et il n'y a plus de capacité de production pour atteindre les objectifs suivants:
Bienvenue pour soumettre une demande de traction ou en discuter, et votre contribution est la bienvenue!
Ce projet a été développé par Chatlunalab.
Chatluna (ci-après dénommé ce projet) est un cadre de robot de dialogue basé sur de grands modèles de langue. Nous nous engageons à travailler avec la communauté open source pour promouvoir le développement de la technologie des modèles à grande échelle. Nous appelons fortement les développeurs et autres utilisateurs à se conformer à l'accord open source afin de garantir que le cadre et le code de ce projet (et d'autres dérivés basés sur ce projet promu par la communauté) et les dérivés connexes ne sont utilisés à aucune fin qui peuvent nuire au pays et à la société, ainsi que des services qui n'ont pas été en cas de sécurité et enregistrés.
Ce projet ne fournit directement pas le soutien aux services d'intelligence artificielle génératifs, et les utilisateurs doivent obtenir l'algorithme API utilisée auprès d'organisations ou de personnes qui fournissent des services d'intelligence artificielle de production.
Si vous avez utilisé ce projet, veuillez suivre les lois et réglementations de la zone locale et utiliser les algorithmes de service d'intelligence artificielle de production disponibles dans la région.
Ce projet n'est pas responsable des résultats générés par l'algorithme, et tous les résultats et opérations sont la responsabilité de l'utilisateur.
Le stockage d'informations pertinent de ce projet est entièrement obtenu par l'utilisateur, et le projet lui-même ne fournit pas de stockage d'informations direct.
Ce projet n'assume aucun risque et responsabilités résultant de la sécurité des données, des risques d'opinion publique causés par les utilisateurs ou les tromperies, les abus, la diffusion ou la mauvaise utilisation de tout modèle.
Ce projet fait également référence à d'autres projets open source lors de l'écriture, et un merci spécial aux projets suivants:
Koishi-Plugin-openai
nœud-chatpt-api
poe-api
Barde
chathub
Merci à JetBrains d'avoir fourni à ce projet une licence open source gratuite pour les IDE tels que WebStorm.