Dieses Projekt demonstriert die Leistungsfähigkeit und Einfachheit von NVIDIA NIM (NVIDIA Inference Model), einer Suite optimierter Cloud-nativer Mikrodienste, durch die Einrichtung und den Betrieb einer Retrieval-Augmented Generation (RAG)-Pipeline. NVIDIA NIM wurde entwickelt, um die Bereitstellung und Markteinführung generativer KI-Modelle in verschiedenen Umgebungen, einschließlich Cloud-Plattformen, Rechenzentren und GPU-beschleunigten Workstations, zu optimieren. Durch die Abstraktion der Komplexität der KI-Modellentwicklung und die Nutzung branchenüblicher APIs macht NIM fortschrittliche KI-Technologien einem breiteren Spektrum von Entwicklern zugänglich.
Klonen Sie das Repository
git clone https://github.com/mickymultani/nvidia-NIM-RAG.git
cd nvidia-NIM-RAG
Richten Sie eine virtuelle Umgebung ein
Erstellen Sie eine virtuelle Umgebung mit dem Namen nvidia
:
python -m venv nvidia
Aktivieren Sie die virtuelle Umgebung:
nvidia S cripts a ctivate
source nvidia/bin/activate
Abhängigkeiten installieren
Installieren Sie die erforderlichen Pakete mit pip:
pip install -r requirements.txt
Umgebungsvariablen
Erstellen Sie eine .env
Datei im Stammverzeichnis des Projekts und fügen Sie Ihren NVIDIA-API-Schlüssel hinzu:
NVIDIA_API_KEY=your_nvidia_api_key_here
Ersetzen Sie your_nvidia_api_key_here
durch Ihren tatsächlichen NVIDIA-API-Schlüssel.
Um das Projekt auszuführen, führen Sie den folgenden Befehl aus:
python nim.py
Beiträge zu diesem Projekt sind willkommen!
Verteilt unter der MIT-Lizenz.