Beta OpenAI-Beispiel: Assistenten + Threads + Läufe
- Typoskript
- Cloudflare-Mitarbeiter
- OpenAI node.js SDK
Dieses Projekt umfasst:
- VSCode-Debugging mit Haltepunkten sowohl für den Worker- als auch für den Unit-Test
- Unit-Tests
- 2 Endpunkte
-
POST /threads
der einen neuen Thread erstellt und die Thread-ID zurückgibt -
POST /threads/:threadId/messages
- Liest die Benutzernachricht aus dem Anforderungstext als Klartext
- Fügt eine Nachricht zu einem Thread hinzu
- Erstellt einen Assistenten, falls dieser nicht vorhanden ist
- Führt den Assistenten für den Thread aus
- Fragt den Lauf ab, bis er abgeschlossen ist
- Gibt die Antwort des Assistenten als Klartext zurück
Läuft
- Klonen Sie das Repo und führen Sie
npm install
aus - Kopieren Sie
wrangler.example.toml
nach wrangler.toml
und geben Sie den OpenAI-API-Schlüssel ein - Angenommen, Sie verwenden VSCode, drücken Sie F5, um den Worker zu starten
- Sie können auch
Worker + Test
auswählen, um die Komponententests auszuführen und den Worker in Aktion zu sehen (alle Breakpoable!)
Andere Leckereien
Ich habe eine Assistant-Dokumentation beigefügt, die Sie einfach in chatgpt einfügen können, um Fragen zur neuen beta.assistants-API zu beantworten. Ich habe dies tatsächlich verwendet, um die erste Version des Codes zu erstellen.
- alle Dokumente
- [Protokolle vom Spielplatz (ermöglicht Ihnen zu verstehen, wie OpenAI seine Spielplätze grob implementiert hat)](assistants-documentation/4. Playground Assistants log.md)
- Eingabeaufforderung zum Erstellen der index.ts
- [Gesamtaufforderung, die ich an ChatGPT übermittelt habe, um die index.ts zu generieren (hat einigermaßen gut funktioniert)](assistants-documentation/7. Eingabeaufforderung mit allen oben genannten Dateien in it.md)