ЧатGPTSharp
В этом проекте реализован непрерывный диалог ChatGPT на основе ConversationId, который можно быстро интегрировать с помощью всего нескольких строк кода. Он поддерживает такие модели, как gpt-4 , gpt-4-vision-preview и gpt-3.5-turbo .
中文
Начиная
ChatGPTSharp доступен как пакет NuGet.
Используйте ConversationId для непрерывных разговоров.
ChatGPTClientSettings settings = new ChatGPTClientSettings ( ) ;
settings . OpenAIToken = File . ReadAllText ( " KEY.txt " ) ;
settings . ModelName = " gpt-4-vision-preview " ;
settings . ProxyUri = " http://127.0.0.1:1081 " ;
var client = new ChatGPTClient ( settings ) ;
client . IsDebug = true ;
var ChatImageModels = new List < ChatImageModel > ( )
{
ChatImageModel . CreateWithFile ( @"C:UsersaiqinPictures20231221155547.png" , ImageDetailMode . Low )
} ;
var systemPrompt = " " ;
var msg = await client . SendMessage ( " Please describe this image " , systemPrompt : systemPrompt , images : ChatImageModels ) ;
Console . WriteLine ( $" { msg . Response } { msg . ConversationId } , { msg . MessageId } " ) ;
msg = await client . SendMessage ( " Have you eaten today? " , msg . ConversationId , msg . MessageId ) ;
Console . WriteLine ( $" { msg . Response } { msg . ConversationId } , { msg . MessageId } " ) ;
Обновлять
2.0.0 20231221
- Добавлена поддержка отправки изображений с использованием модели Vision и предварительного вычисления токенов изображений (только локальные файлы).
- Улучшен алгоритм токенов сообщений для соответствия официальному API.
- Добавлено больше данных о количестве токенов по умолчанию для моделей официального сайта и автоматическое преобразование «16k» в названиях моделей в максимальное количество токенов.
- Учитывая растущее количество токенов в моделях, введен метод поддержки неограниченного количества токенов MaxResponseToken и MaxPromptTokens. Установка их на 0 снимет ограничение.
1.1.4 20230711
- Добавить поддержку gpt-3.5-turbo-16k
1.1.3 20230508
- Удален старый код алгоритма токена, теперь поддерживается netstandard2.0. Теперь библиотеку также можно использовать с .NET Framework.
1.1.2 20230429
- Поддержка модели GPT-4 и исправление максимального количества токенов для 8k и 32k.
Журнал изменений для более ранних версий.
1.1.0 20230320
- Метод инициализации ChatGPTClient добавляет настройку времени ожидания запроса и изменяет время ожидания по умолчанию с 20 секунд до 60 секунд.
1.0.9 20230307
- Использование TiktokenSharp для расчета количества токенов, устраняя проблему неточного расчета токенов.
1.0.8 20230304
- исправление алгоритма токена
1.0.6 20230303
- Алгоритм токена был временно удален, что может вызвать исключения при объединении определенных строк. Он будет восстановлен после завершения последующего тестирования.
1.0.5 20230303
- Добавьте параметры SendMessage sendSystemType и sendSystemMessage, чтобы указать вставку системных сообщений в диалог.
1.0.3 20230302
- Добавьте алгоритм локального токена gpt3, алгоритм из библиотеки js gpt-3-encoder.
Эта база кода ссылается на node-chatgpt-api.