ChatGPTSharp
Este proyecto implementa el diálogo continuo ChatGPT basado en ConversationId, que se puede integrar rápidamente con solo unas pocas líneas de código. Admite modelos como gpt-4 , gpt-4-vision-preview y gpt-3.5-turbo .
中文
Empezando
ChatGPTSharp está disponible como paquete NuGet.
Utilice ConversationId para conversaciones continuas.
ChatGPTClientSettings settings = new ChatGPTClientSettings ( ) ;
settings . OpenAIToken = File . ReadAllText ( " KEY.txt " ) ;
settings . ModelName = " gpt-4-vision-preview " ;
settings . ProxyUri = " http://127.0.0.1:1081 " ;
var client = new ChatGPTClient ( settings ) ;
client . IsDebug = true ;
var ChatImageModels = new List < ChatImageModel > ( )
{
ChatImageModel . CreateWithFile ( @"C:UsersaiqinPictures20231221155547.png" , ImageDetailMode . Low )
} ;
var systemPrompt = " " ;
var msg = await client . SendMessage ( " Please describe this image " , systemPrompt : systemPrompt , images : ChatImageModels ) ;
Console . WriteLine ( $" { msg . Response } { msg . ConversationId } , { msg . MessageId } " ) ;
msg = await client . SendMessage ( " Have you eaten today? " , msg . ConversationId , msg . MessageId ) ;
Console . WriteLine ( $" { msg . Response } { msg . ConversationId } , { msg . MessageId } " ) ;
Actualizar
2.0.0 20231221
- Se agregó soporte para enviar imágenes usando el modelo Vision y tokens de imágenes precalculados (solo archivos locales).
- Se mejoró el algoritmo de token para que los mensajes se alineen con la API oficial.
- Se agregaron más datos de recuento de tokens predeterminados para los modelos de sitios web oficiales y conversión automática de '16k' en nombres de modelos a tokens máximos.
- Teniendo en cuenta la creciente cantidad de tokens en los modelos, se introdujo un método para admitir MaxResponseTokens y MaxPromptTokens ilimitados. Establecerlos en 0 eliminará el límite.
1.1.4 20230711
- Agregar soporte gpt-3.5-turbo-16k
1.1.3 20230508
- Se eliminó el antiguo código del algoritmo de token y ahora es compatible con netstandard2.0; ahora la biblioteca también se puede usar con .NET Framework.
1.1.2 20230429
- Soporte para el modelo GPT-4 y corrección del recuento máximo de tokens para 8k y 32k.
Registro de cambios para versiones anteriores.
1.1.0 20230320
- El método de inicialización de ChatGPTClient agrega una configuración de tiempo de espera de solicitud y cambia el tiempo de espera predeterminado de 20 segundos a 60 segundos.
1.0.9 20230307
- Uso de TiktokenSharp para calcular el recuento de tokens y solucionar el problema del cálculo inexacto de los tokens.
1.0.8 20230304
- corrección del algoritmo de token
1.0.6 20230303
- El algoritmo de token se eliminó temporalmente, lo que puede causar excepciones cuando se combinan ciertas cadenas. Se restaurará después de que se completen las pruebas posteriores.
1.0.5 20230303
- Agregue los parámetros SendMessage sendSystemType y sendSystemMessage para especificar la inserción de mensajes del sistema en la conversación.
1.0.3 20230302
- Agregue el algoritmo de token local de gpt3, el algoritmo es de la biblioteca js gpt-3-encoder
Esta base de código hace referencia a node-chatgpt-api