llama chat
1.0.0
Dies ist eine Next.js-App, die zeigt, wie man eine Chat-Benutzeroberfläche mit dem Sprachmodell Llama 3 und der Streaming-API von Replicate erstellt (private Beta).
Hier ist eine Demo:
Abhängigkeiten installieren:
npm install
Fügen Sie Ihr Replikate-API-Token zu .env.local
hinzu:
REPLICATE_API_TOKEN=<your-token-here>
Führen Sie den Entwicklungsserver aus:
npm run dev
Öffnen Sie http://localhost:3000 mit Ihrem Browser.
Ausführliche Anweisungen zum Erstellen und Verwenden dieser Vorlage finden Sie unter Replicate.com/docs/get-started/nextjs