ChatGPTShap
Ce projet implémente un dialogue continu ChatGPT basé sur ConversationId, qui peut être rapidement intégré avec seulement quelques lignes de code. Il prend en charge des modèles tels que gpt-4 , gpt-4-vision-preview et gpt-3.5-turbo .
Chine
Commencer
ChatGPTSharp est disponible sous forme de package NuGet.
Utilisez ConversationId pour des conversations continues.
ChatGPTClientSettings settings = new ChatGPTClientSettings ( ) ;
settings . OpenAIToken = File . ReadAllText ( " KEY.txt " ) ;
settings . ModelName = " gpt-4-vision-preview " ;
settings . ProxyUri = " http://127.0.0.1:1081 " ;
var client = new ChatGPTClient ( settings ) ;
client . IsDebug = true ;
var ChatImageModels = new List < ChatImageModel > ( )
{
ChatImageModel . CreateWithFile ( @"C:UsersaiqinPictures20231221155547.png" , ImageDetailMode . Low )
} ;
var systemPrompt = " " ;
var msg = await client . SendMessage ( " Please describe this image " , systemPrompt : systemPrompt , images : ChatImageModels ) ;
Console . WriteLine ( $" { msg . Response } { msg . ConversationId } , { msg . MessageId } " ) ;
msg = await client . SendMessage ( " Have you eaten today? " , msg . ConversationId , msg . MessageId ) ;
Console . WriteLine ( $" { msg . Response } { msg . ConversationId } , { msg . MessageId } " ) ;
Mise à jour
2.0.0 20231221
- Ajout de la prise en charge de l'envoi d'images à l'aide du modèle Vision et des jetons d'image de pré-calcul (fichiers locaux uniquement).
- Amélioration de l'algorithme de jeton pour les messages afin de s'aligner sur l'API officielle.
- Ajout de données supplémentaires sur le nombre de jetons par défaut pour les modèles de sites Web officiels et conversion automatique de « 16 000 » dans les noms de modèles en jetons maximum.
- Compte tenu du nombre croissant de jetons dans les modèles, introduction d’une méthode pour prendre en charge un nombre illimité de MaxResponseTokens et MaxPromptTokens. Les définir sur 0 supprimera la limite.
1.1.4 20230711
- Ajouter le support gpt-3.5-turbo-16k
1.1.3 20230508
- Suppression de l'ancien code de l'algorithme de jeton et prend désormais en charge netstandard2.0. Désormais, la bibliothèque peut également être utilisée avec .NET Framework.
1.1.2 20230429
- Prise en charge du modèle GPT-4 et correction du nombre maximum de jetons pour 8k et 32k.
Journal des modifications pour les versions antérieures.
1.1.0 20230320
- La méthode d'initialisation de ChatGPTClient ajoute un paramètre de délai d'expiration de la demande et modifie le délai d'expiration par défaut de 20 secondes à 60 secondes.
1.0.9 20230307
- Utiliser TiktokenSharp pour calculer le nombre de jetons, résolvant ainsi le problème du calcul inexact des jetons.
1.0.8 20230304
- Correction de l'algorithme de jeton
1.0.6 20230303
- L'algorithme de jeton a été temporairement supprimé, ce qui peut provoquer des exceptions lorsque certaines chaînes sont combinées. Il sera restauré une fois les tests ultérieurs terminés.
1.0.5 20230303
- Ajoutez les paramètres SendMessage sendSystemType et sendSystemMessage pour spécifier l'insertion de messages système dans la conversation.
1.0.3 20230302
- Ajoutez l'algorithme de jeton local de gpt3, l'algorithme provient de la bibliothèque js gpt-3-encoder
Cette base de code fait référence à node-chatgpt-api