llm ls
0.5.3
重要的
目前,这是一项正在进行的工作,期望事情会破裂!
LLM-LS是利用LLM的LSP服务器,可使您的开发体验更加顺畅,更有效。
LLM-LS的目标是为IDE扩展的建立提供一个共同的平台。 LLM-LS在与LLMS相互作用方面负责繁重,因此扩展代码可以尽可能轻巧。
使用当前文件作为上下文生成提示。可以使用“填充中间”或不取决于您的需求。
它还可以通过将提示提示来确保您在模型的上下文窗口中。
收集有关可以启用重新培训的请求和完成的信息。
请注意, LLM-LS不会在任何地方导出任何数据(在查询模型API时设置用户代理除外),如果设置设置该设置,则所有内容都存储在日志文件( ~/.cache/llm_ls/llm-ls.log
)中日志级别至info
。
LLM-LS解析代码的AST,以确定完成是多行,单行还是空的(无完成)。
LLM-LS与拥抱Face的推理API兼容,拥抱Face的文本生成推导,Ollama和OpenAI兼容API,例如Python Llama.cpp服务器绑定。
suffix_percent
设置,以确定前缀#前缀与后缀的比例max_tokens