ObrolanGPTSharp
Proyek ini mengimplementasikan dialog berkelanjutan ChatGPT berdasarkan ConversationId, yang dapat diintegrasikan dengan cepat hanya dengan beberapa baris kode. Ini mendukung model seperti gpt-4 , gpt-4-vision-preview dan gpt-3.5-turbo .
tidak
Memulai
ChatGPTSharp tersedia sebagai paket NuGet.
Gunakan ConversationId untuk percakapan berkelanjutan.
ChatGPTClientSettings settings = new ChatGPTClientSettings ( ) ;
settings . OpenAIToken = File . ReadAllText ( " KEY.txt " ) ;
settings . ModelName = " gpt-4-vision-preview " ;
settings . ProxyUri = " http://127.0.0.1:1081 " ;
var client = new ChatGPTClient ( settings ) ;
client . IsDebug = true ;
var ChatImageModels = new List < ChatImageModel > ( )
{
ChatImageModel . CreateWithFile ( @"C:UsersaiqinPictures20231221155547.png" , ImageDetailMode . Low )
} ;
var systemPrompt = " " ;
var msg = await client . SendMessage ( " Please describe this image " , systemPrompt : systemPrompt , images : ChatImageModels ) ;
Console . WriteLine ( $" { msg . Response } { msg . ConversationId } , { msg . MessageId } " ) ;
msg = await client . SendMessage ( " Have you eaten today? " , msg . ConversationId , msg . MessageId ) ;
Console . WriteLine ( $" { msg . Response } { msg . ConversationId } , { msg . MessageId } " ) ;
Memperbarui
2.0.0 20231221
- Menambahkan dukungan untuk mengirim gambar menggunakan model Vision dan token gambar pra-komputasi (hanya file lokal).
- Memperbaiki algoritma token untuk pesan agar selaras dengan API resmi.
- Menambahkan lebih banyak data jumlah token default untuk model situs web resmi dan konversi otomatis '16k' pada nama model menjadi token maksimum.
- Mengingat meningkatnya jumlah token dalam model, memperkenalkan metode untuk mendukung MaxResponseTokens dan MaxPromptTokens tanpa batas. Menyetelnya ke 0 akan menghapus batasnya.
1.1.4 20230711
- Tambahkan dukungan gpt-3.5-turbo-16k
1.1.3 20230508
- Menghapus kode algoritma token lama dan sekarang mendukung netstandard2.0, sekarang perpustakaan juga dapat digunakan dengan .NET Framework.
1.1.2 20230429
- Dukungan untuk model GPT-4 dan koreksi jumlah token maksimum untuk 8k dan 32k.
Changelog untuk versi sebelumnya.
1.1.0 20230320
- Metode inisialisasi ChatGPTClient menambahkan pengaturan batas waktu permintaan dan mengubah waktu tunggu default dari 20 detik menjadi 60 detik.
1.0.9 20230307
- Menggunakan TiktokenSharp untuk menghitung jumlah token, memperbaiki masalah penghitungan token yang tidak akurat.
1.0.8 20230304
- perbaikan algoritma token
1.0.6 20230303
- Algoritme token telah dihapus untuk sementara, yang dapat menyebabkan pengecualian ketika string tertentu digabungkan. Ini akan dipulihkan setelah pengujian selanjutnya selesai.
1.0.5 20230303
- Tambahkan parameter SendMessage sendSystemType dan sendSystemMessage untuk menentukan penyisipan pesan sistem ke dalam percakapan.
1.0.3 20230302
- Tambahkan algoritma token lokal gpt3, algoritmanya dari perpustakaan js gpt-3-encoder
Basis kode ini merujuk pada node-chatgpt-api