В этом репозитории я углубляюсь в создание центра обмена знаниями на основе моих собственных источников данных, где команды могут получать ценную информацию и ответы в ходе беседы, используя технику вопросов и ответов RAG, с потенциалом дополнить способ обмена информацией внутри обеих сторон. малые и крупные организации.
Короче говоря, RAG Q&A (Вопросы и ответы с расширенной генерацией данных) — это структура, сочетающая в себе подходы, основанные на поиске и генерации. Он использует ретривер для поиска соответствующей информации и, как правило, LLM (большая языковая модель) в качестве генератора для создания контекстно насыщенных ответов. По определению, LLM — это тип модели искусственного интеллекта, способной понимать и генерировать человеческий язык, обученной на огромных объемах текстовых данных для изучения шаблонов, структур и контекста естественного языка.
Я сделал один блокнот, используя бесплатную модель Llama-2–7b-chat-hf (с 4-битной стратегией квантования) для Google Colab, которая позволяет запускать это программное обеспечение бесплатно, и другой блокнот, используя OpenAIchat-gpt-3.5- турбо- модель LLM с использованием подписки OpenAI. Обязательно установите необходимые требования, если собираетесь использовать локальную версию.
Для этого варианта использования файлы документации по уценке были получены из трех разных источников данных:
Эти документы были выбраны потому, что они являются типичными способами для организаций документировать и сохранять знания своих проектов.
Последний чат-бот точно извлекал знания, предоставляя краткие и релевантные ответы, а также связывая использованные документы.