ChatGPTSharp
Dieses Projekt implementiert den kontinuierlichen ChatGPT-Dialog basierend auf ConversationId, der mit nur wenigen Codezeilen schnell integriert werden kann. Es unterstützt Modelle wie gpt-4 , gpt-4-vision-preview und gpt-3.5-turbo .
中文
Erste Schritte
ChatGPTSharp ist als NuGet-Paket verfügbar.
Verwenden Sie ConversationId für kontinuierliche Gespräche.
ChatGPTClientSettings settings = new ChatGPTClientSettings ( ) ;
settings . OpenAIToken = File . ReadAllText ( " KEY.txt " ) ;
settings . ModelName = " gpt-4-vision-preview " ;
settings . ProxyUri = " http://127.0.0.1:1081 " ;
var client = new ChatGPTClient ( settings ) ;
client . IsDebug = true ;
var ChatImageModels = new List < ChatImageModel > ( )
{
ChatImageModel . CreateWithFile ( @"C:UsersaiqinPictures20231221155547.png" , ImageDetailMode . Low )
} ;
var systemPrompt = " " ;
var msg = await client . SendMessage ( " Please describe this image " , systemPrompt : systemPrompt , images : ChatImageModels ) ;
Console . WriteLine ( $" { msg . Response } { msg . ConversationId } , { msg . MessageId } " ) ;
msg = await client . SendMessage ( " Have you eaten today? " , msg . ConversationId , msg . MessageId ) ;
Console . WriteLine ( $" { msg . Response } { msg . ConversationId } , { msg . MessageId } " ) ;
Aktualisieren
2.0.0 20231221
- Unterstützung für das Senden von Bildern mithilfe des Vision-Modells und der Vorberechnung von Bild-Tokens hinzugefügt (nur lokale Dateien).
- Der Token-Algorithmus für Nachrichten wurde verbessert, um ihn an die offizielle API anzupassen.
- Weitere Standard-Token-Zähldaten für offizielle Website-Modelle hinzugefügt und automatische Konvertierung von „16k“ in Modellnamen in maximale Token.
- Angesichts der zunehmenden Anzahl von Token in Modellen wurde eine Methode zur Unterstützung unbegrenzter MaxResponseTokens und MaxPromptTokens eingeführt. Wenn Sie sie auf 0 setzen, wird das Limit entfernt.
1.1.4 20230711
- Unterstützung für gpt-3.5-turbo-16k hinzufügen
1.1.3 20230508
- Der alte Token-Algorithmus-Code wurde entfernt und unterstützt jetzt netstandard2.0. Jetzt kann die Bibliothek auch mit .NET Framework verwendet werden.
1.1.2 20230429
- Unterstützung für das GPT-4-Modell und Korrektur der maximalen Tokenanzahl für 8k und 32k.
Änderungsprotokoll für frühere Versionen.
1.1.0 20230320
- Die Initialisierungsmethode von ChatGPTClient fügt eine Anforderungs-Timeout-Einstellung hinzu und ändert die Standard-Timeout-Zeit von 20 Sekunden auf 60 Sekunden.
1.0.9 20230307
- Verwendung von TiktokenSharp zur Berechnung der Token-Anzahl, wodurch das Problem einer ungenauen Token-Berechnung behoben wird.
1.0.8 20230304
- Korrektur des Token-Algorithmus
1.0.6 20230303
- Der Token-Algorithmus wurde vorübergehend entfernt, was bei der Kombination bestimmter Zeichenfolgen zu Ausnahmen führen kann. Es wird wiederhergestellt, nachdem die nachfolgenden Tests abgeschlossen sind.
1.0.5 20230303
- Fügen Sie die SendMessage-Parameter sendSystemType und sendSystemMessage hinzu, um das Einfügen von Systemnachrichten in die Konversation anzugeben.
1.0.3 20230302
- Fügen Sie den lokalen Token-Algorithmus von gpt3 hinzu. Der Algorithmus stammt aus der js-Bibliothek gpt-3-encoder
Diese Codebasis verweist auf node-chatgpt-api