Quicklinks ?
- Registrieren Sie sich, um einen API-Schlüssel für Stream zu erhalten
- ReactJS-Beispiel
- ChatGPT-Knotenserver
- Gemini-Knotenserver
Repo-Übersicht?
Dieses Repo enthält die offiziellen Beispielprojekte von Stream, die demonstrieren, wie generative KI in unseren Chat-Produkten verwendet werden kann. Es enthält Beispiel-Backend-Server für ChatGPT und Gemini, die als Referenzhandbuch bei der Verwendung von Gen AI mit Stream verwendet werden können.
Beispielintegrationen in ReactJS, Android und Flutter befinden sich im Verzeichnis „frontends“, das auch die Arbeit mit und das Rendern von Echtzeit-Nachrichtenblöcken demonstriert, wenn sie von KI-Anbietern gesendet werden.
Projekte/Pakete
- Backend
- ChatGPT-Server: Knotenserver, der sich sowohl mit OpenAI als auch mit Stream-Chat verbindet, um Nachrichten in Echtzeit abzufangen und zu beantworten.
- Gemini-Server: Knotenserver, der Stream Chat mit Gemini verbindet und das Senden, Empfangen und Beantworten von Nachrichten ermöglicht.
- Frontend
- React/NextJS: NextJs-App, die mit ChatGPT interagiert und Streaming-Antworten implementiert.
- Android: In Kotlin geschriebene Jetpack Compose-App, die Googles Gemini und unser Jetpack Compose SDK integriert. Detaillierte Anweisungen für die ersten Schritte finden Sie im Unterverzeichnis.
Wie läuft man?
Umgebungsvariablen einrichten
Fügen Sie .env
Datei die folgenden Anmeldeinformationen hinzu:
- Stream-Chat-App-API-Schlüssel und -Geheimnis
- Benutzer-ID und Token
- OpenAI-API-Schlüssel
- Oder Gemini-API-Schlüssel
Backend
Um den Backend-Server zu starten, können Sie zwischen ChatGPT und Gemini wählen. Der Server wartet auf Nachrichten und antwortet mit KI-generierten Antworten. Sie müssen diese Server-URL als Webhook für Ihre Stream Chat-App konfigurieren.
cd server
yarn ;
# Start ChatGPT server
yarn start:openai
# Or start Gemini server
yarn start:gemini
Konfigurieren Sie den Ngrok-Webhook
Um den lokalen Server dem Internet zugänglich zu machen, können Sie ngrok verwenden. Befolgen Sie die Anweisungen hier, um ngrok einzurichten und die Webhook-URL für Ihre Stream Chat-App zu konfigurieren:
https://getstream.io/chat/docs/react/debugging_with_ngrok/
Frontend
cd react-chat
yarn ; yarn start
KI-Guides
In diesen Leitfäden erfahren Sie mehr darüber, wie KI in unseren SDKs und Produkten eingesetzt werden kann.
- ChatGPT mit Stream Chat implementieren
- Erstellen Sie eine KI-Chat-Android-App mit der generativen KI von Google
- Erstellen Sie einen LLM-gestützten Chatbot für Ihre Dokumentation
- Konversations-KI mit Stream Chat, HuggingFace und DialogGPT
Mitwirken?
- Wie kann ich eine Beispiel-App einreichen?
- App-Einreichungen sind immer willkommen! ? Öffnen Sie eine PR mit einer angemessenen Beschreibung und wir werden sie so schnell wie möglich überprüfen
- Einen Fehler entdecken? ?
- Wir freuen uns über Codeänderungen, die die Apps verbessern oder ein Problem beheben. Bitte stellen Sie sicher, dass Sie alle Best Practices befolgen und ggf. Tests hinzufügen, bevor Sie eine Pull-Anfrage auf Github einreichen.