llama_rag_systemは、豊富なコンテキストに関連する回答を使用してユーザークエリにインタラクティブに応答するように設計された、堅牢な回収された回復力豊富なジェネレーション(RAG)システムです。 LlamaモデルとOllamaを使用して構築されたこのシステムは、一般的な質問への回答、コンテンツの要約、アップロードされたPDFドキュメントから情報の抽出など、さまざまなタスクを処理できます。このアーキテクチャは、効率的なドキュメントの埋め込みと検索にChromAdbを使用し、Webスクレイピング機能を組み込んでインターネットから最新の情報を取得します。
Gradio App Interfaceを垣間見ることができます。
?注:このプロジェクトは現在開発中です。あなたのフィードバックと貢献は大歓迎です!
Ollamaは、いくつかの理由で地元で機械学習モデルを実行するための優れたオプションです。
プロジェクトは次のように編成されています。
project/
├── core/
│ ├── embedding.py # Embedding-related functionality
│ ├── document_utils.py # Functions to handle document loading and processing
│ ├── query.py # Query document functionality
│ ├── generate.py # Response generation logic
│ ├── web_scrape.py # Web scraping functionality
│
├── scripts/
│ ├── run_flask.py # Script to run Flask API
│ ├── run_gradio.py # Script to run Gradio interface
│
├── chromadb_setup.py # ChromaDB setup and connection
│
├── README.md # Project documentation
llama_rag_systemをセットアップするには、次の手順に従ってください。
リポジトリをクローンします:
git clone https://github.com/NimaVahdat/Llama_RAG_System.git
cd Llama_RAG_System
ChromADBおよびその他の必要なサービスが必要に応じて実行されていることを確認してください。
Flask APIを起動するには、次のコマンドを実行します。
python -m scripts.run_flask
Gradio Interfaceを起動するには、実行してください。
python -m scripts.run_gradio
いずれかのスクリプトを実行した後、提供されたWebインターフェイスを介してシステムと対話することができます。
貢献は大歓迎です!改善または機能の提案がある場合は、リポジトリをフォークしてプルリクエストを送信してください。
このプロジェクトは、MITライセンスに基づいてライセンスされています。詳細については、ライセンスファイルを参照してください。
お問い合わせやサポートについては、私に連絡してください。