Penting
Saat ini sedang dalam proses, mengharapkan hal -hal yang harus dilanggar!
LLM-LS adalah server LSP yang memanfaatkan LLM untuk membuat pengalaman pengembangan Anda lebih halus dan lebih efisien.
Tujuan LLM-LS adalah untuk menyediakan platform umum untuk ekstensi IDE untuk dibangun. LLM-LS menangani pengangkatan berat sehubungan dengan berinteraksi dengan LLMS sehingga kode ekstensi bisa sekuat mungkin.
Menggunakan file saat ini sebagai konteks untuk menghasilkan prompt. Dapat menggunakan "isi di tengah" atau tidak tergantung pada kebutuhan Anda.
Ini juga memastikan bahwa Anda berada di dalam jendela konteks model dengan tokenisasi prompt.
Mengumpulkan informasi tentang permintaan dan penyelesaian yang dapat memungkinkan pelatihan ulang.
Perhatikan bahwa LLM-LS tidak mengekspor data apa pun di mana pun (selain mengatur agen pengguna saat menanyakan API model), semuanya disimpan dalam file log ( ~/.cache/llm_ls/llm-ls.log
) jika Anda mengatur Level log ke info
.
LLM-LS Parse AST dari kode untuk menentukan apakah penyelesaian harus multi-baris, satu baris atau kosong (tidak ada penyelesaian).
LLM-LS kompatibel dengan API Inference Hugging Face, Hugging Face-Generasi-Generasi-Inferensi, Ollama dan API Openai yang kompatibel, seperti ikatan server Python llama.cpp.
suffix_percent
yang menentukan rasio # token untuk awalan vs akhiran di promptmax_tokens