Llama-github — это мощный инструмент, который помогает вам получать (на основе Agentic RAG) наиболее актуальные фрагменты кода, проблемы и информацию о репозитории из GitHub на основе ваших запросов, преобразуя их в ценный контекст знаний. Он позволяет чат-ботам LLM, агентам искусственного интеллекта и агентам автоматической разработки решать сложные задачи кодирования. Являетесь ли вы разработчиком, ищущим быстрые решения, или инженером, внедряющим усовершенствованные агенты Auto Dev AI, llama-github сделает это простым и эффективным.
Если вам нравится этот проект или вы считаете, что у него есть потенциал, поставьте ему ️. Ваша поддержка – наша самая большая мотивация!
pip install llama-github
Вот простой пример использования llama-github:
from llama_github import GithubRAG
# Initialize GithubRAG with your credentials
github_rag = GithubRAG (
github_access_token = "your_github_access_token" ,
openai_api_key = "your_openai_api_key" , # Optional in Simple Mode
jina_api_key = "your_jina_api_key" # Optional - unless you want high concurrency production deployment (s.jina.ai API will be used in llama-github)
)
# Retrieve context for a coding question (simple_mode is default set to False)
query = "How to create a NumPy array in Python?"
context = github_rag . retrieve_context (
query , # In professional mode, one query will take nearly 1 min to generate final contexts. You could set log level to INFO to monitor the retrieval progress
# simple_mode = True
)
print ( context )
Более подробное использование и примеры можно найти в документации.
? Интеллектуальное извлечение данных из GitHub . Используйте возможности llama-github для извлечения наиболее актуальных фрагментов кода, проблем и информации из репозитория из GitHub на основе запросов пользователей. Наши передовые методы поиска гарантируют, что вы быстро и эффективно найдете наиболее нужную информацию.
⚡ Кэширование пула репозиториев : Llama-github имеет инновационный механизм кэширования пула репозиториев. Кэшируя репозитории (включая файлы README, структуры, код и проблемы) в разных потоках, llama-github значительно повышает эффективность поиска данных GitHub и сводит к минимуму потребление токенов GitHub API. Развертывайте llama-github в многопоточных производственных средах с уверенностью, зная, что он будет работать оптимально и сэкономит вам ценные ресурсы.
? Анализ вопросов на основе LLM : используйте самые современные языковые модели для анализа вопросов пользователей и создания высокоэффективных стратегий и критериев поиска. Llama-github разумно разбивает сложные запросы, гарантируя, что вы получите наиболее актуальную информацию из обширной сети репозиториев GitHub.
Комплексная генерация контекста . Создавайте подробные, контекстуально релевантные ответы, плавно объединяя информацию, полученную из GitHub, с возможностями рассуждения расширенных языковых моделей. Llama-github превосходно справляется даже с самыми сложными и длинными вопросами, предоставляя исчерпывающие и содержательные ответы, включающие обширный контекст для поддержки ваших потребностей в разработке.
Совершенство асинхронной обработки : Llama-github создан с нуля, чтобы максимально использовать весь потенциал асинхронного программирования. Благодаря тщательно реализованным асинхронным механизмам, встроенным в кодовую базу, llama-github может обрабатывать несколько запросов одновременно, значительно повышая общую производительность. Почувствуйте разницу: llama-github эффективно управляет большими объемами рабочих нагрузок без ущерба для скорости и качества.
? Гибкая интеграция LLM : легко интегрируйте llama-github с различными поставщиками LLM, встраивая модели и изменяя их ранжирование, чтобы адаптировать возможности библиотеки к вашим конкретным требованиям. Наша расширяемая архитектура позволяет вам настраивать и расширять функциональность llama-github, гарантируя, что она легко адаптируется к вашей уникальной среде разработки.
Надежные варианты аутентификации : Llama-github поддерживает как токены личного доступа, так и аутентификацию приложений GitHub, предоставляя вам возможность гибко интегрировать их в различные настройки разработки. Независимо от того, являетесь ли вы индивидуальным разработчиком или работаете в рамках организации, llama-github предоставит вам безопасные и надежные механизмы аутентификации.
Ведение журнала и обработка ошибок . Мы понимаем важность бесперебойной работы и простоты устранения неполадок. Вот почему llama-github оснащен комплексными механизмами журналирования и обработки ошибок. Получите глубокую информацию о поведении библиотеки, быстро диагностируйте проблемы и поддерживайте стабильный и надежный рабочий процесс разработки.
Если вы найдете llama-github полезным, вас также может заинтересовать наш помощник по PR-ревью GitHub на базе искусственного интеллекта — LlamaPReview. Он призван дополнить ваш рабочий процесс разработки и еще больше повысить качество кода.
LlamaPReview использует расширенный контекстный поиск llama-github и анализ на основе LLM для обеспечения интеллектуальных контекстно-зависимых проверок кода. Это похоже на то, что старший разработчик, вооруженный полным контекстом вашего репозитория, автоматически просматривает каждый PR!
Установите LlamaPReview сейчас (бесплатно)
Используя llama-github для извлечения контекста и LlamaPReview для проверки кода, вы можете создать мощную среду разработки с поддержкой искусственного интеллекта.
Наше видение — стать ключевым модулем в будущих решениях для разработки на основе искусственного интеллекта, плавно интегрируясь с GitHub, чтобы дать возможность специалистам LLM автоматически решать сложные задачи кодирования.
Подробную информацию о дорожной карте нашего проекта можно найти в нашей дорожной карте проекта.
Мы хотели бы выразить нашу благодарность следующим проектам с открытым исходным кодом за их поддержку и вклад:
Их вклад сыграл важную роль в развитии llama-github, и мы настоятельно рекомендуем ознакомиться с их проектами, чтобы найти более инновационные решения.
Мы приветствуем вклад в lama-github! Пожалуйста, ознакомьтесь с нашими рекомендациями по участию для получения дополнительной информации.
Этот проект лицензируется на условиях лицензии Apache 2.0. Дополнительные сведения см. в файле ЛИЦЕНЗИИ.
Если у вас есть какие-либо вопросы, предложения или отзывы, пишите нам по электронной почте Jet Xu.
Спасибо, что выбрали lama-github! Мы надеемся, что эта библиотека расширит ваш опыт разработки ИИ и поможет вам с легкостью создавать мощные приложения.