Llama-github é uma ferramenta poderosa que ajuda você a recuperar (com base no Agentic RAG) os trechos de código, problemas e informações de repositório mais relevantes do GitHub com base em suas consultas, transformando-os em um contexto de conhecimento valioso. Ele capacita chatbots LLM, agentes de IA e agentes de desenvolvimento automático para resolver tarefas complexas de codificação. Quer você seja um desenvolvedor em busca de soluções rápidas ou um engenheiro que implementa agentes avançados de Auto Dev AI, o llama-github torna isso fácil e eficiente.
Se você gosta deste projeto ou acredita que ele tem potencial, dê um ️. Seu apoio é nossa maior motivação!
pip install llama-github
Aqui está um exemplo simples de como usar o llama-github:
from llama_github import GithubRAG
# Initialize GithubRAG with your credentials
github_rag = GithubRAG (
github_access_token = "your_github_access_token" ,
openai_api_key = "your_openai_api_key" , # Optional in Simple Mode
jina_api_key = "your_jina_api_key" # Optional - unless you want high concurrency production deployment (s.jina.ai API will be used in llama-github)
)
# Retrieve context for a coding question (simple_mode is default set to False)
query = "How to create a NumPy array in Python?"
context = github_rag . retrieve_context (
query , # In professional mode, one query will take nearly 1 min to generate final contexts. You could set log level to INFO to monitor the retrieval progress
# simple_mode = True
)
print ( context )
Para uso e exemplos mais avançados, consulte a documentação.
? Recuperação inteligente do GitHub : aproveite o poder do llama-github para recuperar trechos de código, problemas e informações de repositório altamente relevantes do GitHub com base nas consultas do usuário. Nossas técnicas avançadas de recuperação garantem que você encontre as informações mais pertinentes com rapidez e eficiência.
⚡ Cache do pool de repositórios : Llama-github possui um mecanismo inovador de cache do pool de repositórios. Ao armazenar repositórios em cache (incluindo READMEs, estruturas, código e problemas) entre threads, o llama-github acelera significativamente a eficiência de recuperação de pesquisa do GitHub e minimiza o consumo de tokens de API do GitHub. Implante o llama-github em ambientes de produção multithread com confiança, sabendo que ele terá um desempenho ideal e economizará recursos valiosos.
? Análise de perguntas com base em LLM : aproveite modelos de linguagem de última geração para analisar perguntas de usuários e gerar estratégias e critérios de pesquisa altamente eficazes. O Llama-github divide consultas complexas de forma inteligente, garantindo que você recupere as informações mais relevantes da vasta rede de repositórios do GitHub.
Geração de contexto abrangente : gere respostas ricas e contextualmente relevantes, combinando perfeitamente informações recuperadas do GitHub com os recursos de raciocínio de modelos de linguagem avançados. O Llama-github é excelente no tratamento até das questões mais complexas e demoradas, fornecendo respostas abrangentes e esclarecedoras que incluem amplo contexto para apoiar suas necessidades de desenvolvimento.
Excelência em processamento assíncrono : Llama-github é construído desde o início para aproveitar todo o potencial da programação assíncrona. Com mecanismos assíncronos meticulosamente implementados em toda a base de código, o llama-github pode lidar com várias solicitações simultaneamente, aumentando significativamente o desempenho geral. Experimente a diferença, pois o llama-github gerencia com eficiência cargas de trabalho de alto volume sem comprometer a velocidade ou a qualidade.
? Integração flexível de LLM : integre facilmente o llama-github com vários provedores de LLM, incorporando modelos e reclassificando modelos para adaptar os recursos da biblioteca aos seus requisitos específicos. Nossa arquitetura extensível permite personalizar e aprimorar a funcionalidade do llama-github, garantindo que ele se adapte perfeitamente ao seu ambiente de desenvolvimento exclusivo.
Opções robustas de autenticação : Llama-github suporta tokens de acesso pessoal e autenticação de aplicativo GitHub, fornecendo flexibilidade para integrá-lo em diferentes configurações de desenvolvimento. Quer você seja um desenvolvedor individual ou trabalhe em um contexto organizacional, o llama-github oferece mecanismos de autenticação seguros e confiáveis.
Registro e tratamento de erros : entendemos a importância de operações tranquilas e fácil solução de problemas. É por isso que o llama-github vem equipado com mecanismos abrangentes de registro e tratamento de erros. Obtenha insights profundos sobre o comportamento da biblioteca, diagnostique problemas rapidamente e mantenha um fluxo de trabalho de desenvolvimento estável e confiável.
Se você achar o llama-github útil, também pode estar interessado em nosso assistente de revisão de RP do GitHub com tecnologia de IA, LlamaPReview. Ele foi projetado para complementar seu fluxo de trabalho de desenvolvimento e melhorar ainda mais a qualidade do código.
LlamaPReview utiliza recuperação de contexto avançada do llama-github e análise baseada em LLM para fornecer revisões de código inteligentes e conscientes do contexto. É como ter um desenvolvedor sênior, munido de todo o contexto do seu repositório, revisando cada PR automaticamente!
Instale LlamaPReview agora (grátis)
Usando llama-github para recuperação de contexto e LlamaPReview para revisões de código, você pode criar um ambiente de desenvolvimento poderoso e aprimorado por IA.
Nossa visão é nos tornarmos um módulo fundamental no futuro das soluções de desenvolvimento orientadas por IA, integrando-se perfeitamente ao GitHub para capacitar LLMs na resolução automática de tarefas complexas de codificação.
Para uma visão detalhada do nosso roteiro de projeto, visite nosso Roteiro de Projeto.
Gostaríamos de expressar nossa gratidão aos seguintes projetos de código aberto por seu apoio e contribuições:
Suas contribuições foram fundamentais para o desenvolvimento do llama-github, e é altamente recomendável verificar seus projetos para soluções mais inovadoras.
Aceitamos contribuições para lhama-github! Consulte nossas diretrizes de contribuição para obter mais informações.
Este projeto está licenciado sob os termos da licença Apache 2.0. Consulte o arquivo LICENSE para obter mais detalhes.
Se você tiver alguma dúvida, sugestão ou feedback, sinta-se à vontade para entrar em contato conosco pelo e-mail de Jet Xu.
Obrigado por escolher o lhama-github! Esperamos que esta biblioteca aprimore sua experiência de desenvolvimento de IA e ajude você a criar aplicativos poderosos com facilidade.