Bate-papoGPTSharp
Este projeto implementa o diálogo contínuo ChatGPT baseado em ConversationId, que pode ser rapidamente integrado com apenas algumas linhas de código. Suporta modelos como gpt-4 , gpt-4-vision-preview e gpt-3.5-turbo .
中文
Começando
ChatGPTSharp está disponível como pacote NuGet.
Use ConversationId para conversas contínuas.
ChatGPTClientSettings settings = new ChatGPTClientSettings ( ) ;
settings . OpenAIToken = File . ReadAllText ( " KEY.txt " ) ;
settings . ModelName = " gpt-4-vision-preview " ;
settings . ProxyUri = " http://127.0.0.1:1081 " ;
var client = new ChatGPTClient ( settings ) ;
client . IsDebug = true ;
var ChatImageModels = new List < ChatImageModel > ( )
{
ChatImageModel . CreateWithFile ( @"C:UsersaiqinPictures20231221155547.png" , ImageDetailMode . Low )
} ;
var systemPrompt = " " ;
var msg = await client . SendMessage ( " Please describe this image " , systemPrompt : systemPrompt , images : ChatImageModels ) ;
Console . WriteLine ( $" { msg . Response } { msg . ConversationId } , { msg . MessageId } " ) ;
msg = await client . SendMessage ( " Have you eaten today? " , msg . ConversationId , msg . MessageId ) ;
Console . WriteLine ( $" { msg . Response } { msg . ConversationId } , { msg . MessageId } " ) ;
Atualizar
2.0.0 20231221
- Adicionado suporte para envio de imagens usando o modelo Vision e tokens de imagem pré-computados (somente arquivos locais).
- Melhorou o algoritmo de token para que as mensagens se alinhem com a API oficial.
- Adicionados mais dados de contagem de tokens padrão para modelos de sites oficiais e conversão automática de '16k' em nomes de modelos para tokens máximos.
- Considerando o número crescente de tokens nos modelos, foi introduzido um método para suportar MaxResponseTokens e MaxPromptTokens ilimitados. Configurá-los como 0 removerá o limite.
1.1.4 20230711
- Adicionar suporte gpt-3.5-turbo-16k
1.1.3 20230508
- Removido o antigo código do algoritmo de token e agora suporta netstandard2.0, agora a biblioteca também pode ser usada com .NET Framework.
1.1.2 20230429
- Suporte ao modelo GPT-4 e correção da contagem máxima de tokens para 8k e 32k.
Log de alterações para versões anteriores.
1.1.0 20230320
- O método de inicialização do ChatGPTClient adiciona uma configuração de tempo limite de solicitação e altera o tempo limite padrão de 20 segundos para 60 segundos.
1.0.9 20230307
- Usando o TiktokenSharp para calcular a contagem de tokens, corrigindo o problema de cálculo impreciso de tokens.
1.0.8 20230304
- correção de algoritmo de token
1.0.6 20230303
- O algoritmo do token foi removido temporariamente, o que pode causar exceções quando certas strings são combinadas. Ele será restaurado após a conclusão dos testes subsequentes.
1.0.5 20230303
- Adicione os parâmetros SendMessage sendSystemType e sendSystemMessage para especificar a inserção de mensagens do sistema na conversa.
1.0.3 20230302
- Adicione o algoritmo de token local de gpt3, o algoritmo é da biblioteca js gpt-3-encoder
Esta base de código faz referência ao node-chatgpt-api