Llama-github est un outil puissant qui vous aide à récupérer (basé sur Agentic RAG) les extraits de code, les problèmes et les informations de référentiel les plus pertinents de GitHub en fonction de vos requêtes, les transformant en un contexte de connaissances précieux. Il permet aux chatbots LLM, aux agents IA et aux agents de développement automatique de résoudre des tâches de codage complexes. Que vous soyez un développeur à la recherche de solutions rapides ou un ingénieur implémentant des agents Auto Dev AI avancés, llama-github rend la tâche simple et efficace.
Si vous aimez ce projet ou pensez qu'il a du potentiel, merci de lui donner un ️. Votre soutien est notre plus grande motivation !
pip install llama-github
Voici un exemple simple d'utilisation de lama-github :
from llama_github import GithubRAG
# Initialize GithubRAG with your credentials
github_rag = GithubRAG (
github_access_token = "your_github_access_token" ,
openai_api_key = "your_openai_api_key" , # Optional in Simple Mode
jina_api_key = "your_jina_api_key" # Optional - unless you want high concurrency production deployment (s.jina.ai API will be used in llama-github)
)
# Retrieve context for a coding question (simple_mode is default set to False)
query = "How to create a NumPy array in Python?"
context = github_rag . retrieve_context (
query , # In professional mode, one query will take nearly 1 min to generate final contexts. You could set log level to INFO to monitor the retrieval progress
# simple_mode = True
)
print ( context )
Pour une utilisation plus avancée et des exemples, veuillez vous référer à la documentation.
? Récupération intelligente de GitHub : exploitez la puissance de lama-github pour récupérer des extraits de code, des problèmes et des informations de référentiel très pertinents à partir de GitHub en fonction des requêtes des utilisateurs. Nos techniques avancées de récupération vous garantissent de trouver les informations les plus pertinentes rapidement et efficacement.
⚡ Mise en cache du pool de référentiels : Llama-github dispose d'un mécanisme innovant de mise en cache du pool de référentiels. En mettant en cache les référentiels (y compris les README, les structures, le code et les problèmes) entre les threads, llama-github accélère considérablement l'efficacité de la récupération de la recherche GitHub et minimise la consommation de jetons de l'API GitHub. Déployez llama-github dans des environnements de production multithread en toute confiance, sachant qu'il fonctionnera de manière optimale et vous fera économiser de précieuses ressources.
? Analyse des questions basée sur LLM : exploitez des modèles linguistiques de pointe pour analyser les questions des utilisateurs et générer des stratégies et des critères de recherche très efficaces. Llama-github décompose intelligemment les requêtes complexes, garantissant que vous récupérez les informations les plus pertinentes du vaste réseau de référentiels de GitHub.
Génération de contexte complète : générez des réponses riches et contextuellement pertinentes en combinant de manière transparente les informations extraites de GitHub avec les capacités de raisonnement de modèles de langage avancés. Llama-github excelle dans le traitement des questions les plus complexes et les plus longues, en fournissant des réponses complètes et perspicaces qui incluent un contexte étendu pour répondre à vos besoins de développement.
Excellence du traitement asynchrone : Llama-github est conçu dès le départ pour exploiter tout le potentiel de la programmation asynchrone. Grâce à des mécanismes asynchrones méticuleusement mis en œuvre dans toute la base de code, llama-github peut gérer plusieurs requêtes simultanément, améliorant considérablement les performances globales. Découvrez la différence puisque llama-github gère efficacement des charges de travail volumineuses sans compromettre la vitesse ou la qualité.
? Intégration LLM flexible : intégrez facilement lama-github à divers fournisseurs LLM, en intégrant des modèles et des modèles de reclassement pour adapter les capacités de la bibliothèque à vos besoins spécifiques. Notre architecture extensible vous permet de personnaliser et d'améliorer les fonctionnalités de llama-github, garantissant qu'elle s'adapte parfaitement à votre environnement de développement unique.
Options d'authentification robustes : Llama-github prend en charge à la fois les jetons d'accès personnels et l'authentification de l'application GitHub, vous offrant la flexibilité de l'intégrer dans différentes configurations de développement. Que vous soyez un développeur individuel ou que vous travailliez dans un contexte organisationnel, llama-github vous propose des mécanismes d'authentification sécurisés et fiables.
Journalisation et gestion des erreurs : nous comprenons l'importance d'opérations fluides et d'un dépannage facile. C'est pourquoi llama-github est équipé de mécanismes complets de journalisation et de gestion des erreurs. Obtenez des informations approfondies sur le comportement de la bibliothèque, diagnostiquez rapidement les problèmes et maintenez un flux de développement stable et fiable.
Si vous trouvez llama-github utile, vous pourriez également être intéressé par notre assistant de révision GitHub PR alimenté par l'IA, LlamaPReview. Il est conçu pour compléter votre flux de travail de développement et améliorer encore la qualité du code.
LlamaPReview utilise la récupération de contexte avancée de llama-github et l'analyse basée sur LLM pour fournir des révisions de code intelligentes et contextuelles. C'est comme si un développeur senior, armé du contexte complet de votre référentiel, examinait automatiquement chaque PR !
Installez LlamaPReview maintenant (gratuit)
En utilisant llama-github pour la récupération de contexte et LlamaPReview pour les révisions de code, vous pouvez créer un environnement de développement puissant et amélioré par l'IA.
Notre vision est de devenir un module essentiel dans l'avenir des solutions de développement basées sur l'IA, en s'intégrant de manière transparente à GitHub pour permettre aux LLM de résoudre automatiquement des tâches de codage complexes.
Pour une vue détaillée de notre feuille de route de projet, veuillez visiter notre Feuille de route de projet.
Nous tenons à exprimer notre gratitude aux projets open source suivants pour leur soutien et leurs contributions :
Leurs contributions ont joué un rôle déterminant dans le développement de lama-github, et nous vous recommandons vivement de consulter leurs projets pour des solutions plus innovantes.
Nous apprécions les contributions à lama-github ! Veuillez consulter nos directives de contribution pour plus d’informations.
Ce projet est sous licence selon les termes de la licence Apache 2.0. Voir le fichier LICENSE pour plus de détails.
Si vous avez des questions, des suggestions ou des commentaires, n'hésitez pas à nous contacter à l'adresse e-mail de Jet Xu.
Merci d'avoir choisi lama-github ! Nous espérons que cette bibliothèque améliorera votre expérience de développement d'IA et vous aidera à créer facilement des applications puissantes.