Dieses Repository enthält Beispielnotizbücher, die veranschaulichen, wie ein LLM-erweitertes System evaluiert wird. Es stellt Werkzeuge und Methoden für die lokale Bewertung bereit.
Diese Notebooks wurden mit Python 3.12 getestet. Wenn Sie lokal ausführen, stellen Sie sicher, dass Sie 3.12 verwenden. Stellen Sie außerdem sicher, dass Sie über die AWS CLI-Einrichtung mit den Anmeldeinformationen verfügen, die Sie auf das Standardprofil festlegen möchten. Diese Anmeldeinformationen benötigen Zugriff auf Amazon Bedrock Models
LLM-System-Validation/
├── data/ # RAG context and validation datasets
├── example-notebooks/ # Notebooks for evaluating various components
|__ script/ # Various scripts for setting up environment.
|__ .github/ # Example github actions
data/
: Enthält die Datensätze, die für den Kontext und die Validierung der Retrieval-Augmented Generation (RAG) verwendet werden.example-notebooks/
: Jupyter-Notebooks, die die Auswertung von Folgendem demonstrieren:Klonen Sie das Repository:
git clone [email protected]:aws-samples/genai-system-evaluation.git
cd genai-system-evaluation
Richten Sie eine virtuelle Umgebung ein:
python -m venv venv
source venv/bin/activate # On Windows, use `venvScriptsactivate`
Installieren Sie die erforderlichen Abhängigkeiten:
pip install -r requirements.txt
Laden Sie Opensearch-Dokumente für den RAG-Kontext herunter.
$ cd data && mkdir opensearch-docs && cd opensearch-docs
$ git clone https://github.com/opensearch-project/documentation-website.git
Gehen Sie zu Notebook-Beispielen und starten Sie Jupyter-Notebooks!
$ cd ../../example-notebooks
$ jupyter notebook
Beginnen Sie mit Notizbuch 1 und arbeiten Sie sich durch!
example-notebooks/
um verschiedene Bewertungstechniken zu verstehen. Weitere Informationen finden Sie unter BEITRAGEN.
Diese Bibliothek ist unter der MIT-0-Lizenz lizenziert. Siehe die LICENSE-Datei.