Ein-Klick-Version großer Modelle, geeignet für Gensokyo und Onebotv11
Anfänger – Einfacher Zugriff auf den Roboter: Verbinden Sie den Roboter einfach mit 6 wichtigen Plattformen, einschließlich QQ
Mittelstufe – Docking-One-API-Tutorial: Visuelle Verwaltung großer Modell-APIs
API-Konfigurationsbeispiel für mittelgroße Modelle – inländisches großes Modell
API-Konfigurationsbeispiel für mittlere bis große Modelle – internationales Kapitel
Sofort einsatzbereit – schnelle Bereitstellung per Telegram
Legen Sie los – schnell auf Discord bereitstellen
Startklar – schnelle Bereitstellung in Kook
Simple-SillyTavern-Hunyuan
Simple-SillyTavern-Sitzsack
Unterstützt alle Onebotv11-Standard-Frameworks, unterstützt HTTP-API und Reverse-WS, unterstützt Streaming und mehrere Konfigurationsdateien (mehrere Eingabeaufforderungswörter).
Extrem kleine Größe, integrierter SQLite-Wartungskontext, unterstützt Proxy,
Das One-Click-Andocken an das Gensokyo-Framework erfordert lediglich die Konfiguration der Reverse-HTTP-Adresse zum Empfangen von Informationen und der Forward-HTTP-Adresse zum Aufrufen der Sende-API.
Verwalten Sie den Kontext automatisch basierend auf der SQLite-Datenbank. Verwenden Sie im Konversationsmodus den Befehl „Reset“, um ihn zurückzusetzen
System, Rollenkarte, Kontextlänge können eingestellt werden,
Gleichzeitig wird die OpenAI-Original-API mit automatischem Kontext für die Außenwelt bereitgestellt (klassische 3 Parameter, ID, übergeordnete ID, Nachrichten).
Es kann als API ausgeführt werden und kann auch mit einem Klick mit der offenen QQ-Roboter-Plattform des QQ-Kanalroboters verbunden werden.
Kann den SSE-Typ von GPT konvertieren, inkrementieren oder nur neue SSE senden
Die SSE-Speichersicherheit in einer gleichzeitigen Umgebung unterstützt die Aufrechterhaltung der gleichzeitigen bidirektionalen SSE-Übertragung für mehrere Benutzer
Tencent Hunyuan
Tencent Yuanqi
Baidu Wenxin
Ali Tongyi
Tsinghua-Weisheitsspektrum
Byte Volcano (Sitzsack)
OpenAI
groQ
Rwkv-Läufer
Eine API
Konvertieren Sie die APIs dieser Plattformen in eine einheitliche API-Struktur, stellen Sie Kontext bereit und unterstützen Sie die SSE-Rückgabe
Durch Festlegen des Tokens der entsprechenden Plattform in yml und Festlegen von AllApi = true können gleichzeitig Schaltaufrufe durchgeführt werden.
Gensokyo Framework-QQ offene Plattform
Gensokyo Framework-Discord
Gensokyo Framework-Kook
Gensokyo-Framework – WeChat-Abonnementkontoöffentliches Konto
Gensokyo Framework-Telegramm
Alle Onebotv11-Implementierungen
Mehrere vollständige Sicherheitsmaßnahmen, um die Sicherheit von Entwicklern und LM-Anwendungen so weit wie möglich zu gewährleisten.
Es können mehrere Runden simulierter Qualitätssicherung eingerichtet werden, um Rollenaufforderungswörter, Reset-Antworten und sichere Wortantworten zu stärken, und Sicherheitsmaßnahmen der ersten Ebene können angepasst werden
Unterstützt mehrere GSK-LLM-Verbindungen zur Bildung von AI-Agent-Anwendungen, z. B. das Sortieren von Aufforderungswörtern durch ein LLM für ein anderes LLM, das Überwachen von Aufforderungswörtern und sekundäre Sicherheitsmaßnahmen
Die vektorsichere Wortliste, eine sensible Abfangwortliste basierend auf Vektorähnlichkeit, wird vor der Textersetzung durchgeführt, der dritten Sicherheitsmaßnahme
Die vom AhoCorasick-Algorithmus implementierte hocheffiziente Text-IN-Out-Ersetzungsregel kann eine große Anzahl von n Schlüsselwörtern durch die entsprechenden neuen Schlüsselwörter ersetzen. Die vierte Ebene der Sicherheitsmaßnahmen
Die Ergebnisse können erneut über Baidu-Tencent, Textüberprüfungsschnittstelle und Sicherheitsmaßnahmen der fünften Ebene weitergeleitet werden
Das Protokoll wird vollständig aufgezeichnet und der Befehlszeilenparameter -test kann das Sicherheitsselbsttestskript schnell aus test.txt ausführen.
Die Befehlszeile -mlog führt eine QA-Formatierung aller aktuell gespeicherten Protokolle durch, überprüft sie täglich, extrahiert neue Sicherheitsregeln aus tatsächlichen Szenarien und erhöht kontinuierlich die Sicherheit. Die sechste Sicherheitsstufe
Die Sprachfilterung ermöglicht es llm, nur die angegebene Sprache zu akzeptieren, traditionelles Chinesisch automatisch in vereinfachtes Chinesisch umzuwandeln, Sicherheitsregeln anzuwenden und in seinen eigenen Fachgebieten die siebte Ebene der Sicherheitsmaßnahmen zu verteidigen
Begrenzung der Länge von Aufforderungswörtern, Kontrolle der Sicherheit auf die originellste Art und Weise, Verhinderung der Bildung langer Aufforderungswörter durch böswillige Benutzer, die achte Ebene der Sicherheitsmaßnahmen
Erstellen Sie mit diesen Methoden einen möglichst sicheren LLM-Konversationsroboter.
Durch die zweischichtige Text-IN-OUT-Ersetzung können Sie die dynamische Ersetzung und Änderung interner Eingabeaufforderungswörter selbst realisieren, was sicherer und leistungsfähiger ist
Basierend auf der von SQLite entwickelten Vektordatentabellenstruktur kann Caching verwendet werden, um Geld zu sparen. Passen Sie die Cache-Trefferquote und -Genauigkeit an.
Eine spezielle Szenarioanwendung, die für hocheffiziente, leistungsstarke und schnelle QPS-Szenarien optimiert ist. Sie verfügt über keine redundanten Funktionen und Anweisungen und ist vollständig auf digitale Menschen ausgelegt.
Führen Sie das ausführbare Programm gensokyo-llm über die Befehlszeile aus
Konfigurieren Sie config.yml zum Starten und überwachen Sie dann den Port-Port, um die /conversation-API bereitzustellen
Unterstützt die Middleware-Entwicklung. Zwischen der Gensokyo-Framework-Schicht und der HTTP-Anfrage von Gensokyo-llm kann Middleware entwickelt werden, um Vektorerweiterung, Datenbankerweiterung und dynamische Änderung von Benutzerproblemen zu implementieren.
Unterstützt die umgekehrte WS-Verbindung und unterstützt die gleichzeitige Verbindung zu mehreren onebotv11 http-api
Dieses Dokument enthält Anweisungen zur Aufrufmethode der API-Schnittstelle und zum Format der Konfigurationsdatei, um Benutzern bei der korrekten Verwendung und Konfiguration zu helfen.
conversation
und gensokyo
Endpunkte dieses Systems unterstützen die Angabe spezifischer Konfigurationen über den Abfrageparameter ?prompt=xxx
.
Mit dem prompt
Parameter kann der Benutzer die Konfigurations-YAML-Datei angeben, die sich im prompts
Ordner der ausführbaren Datei (exe) befindet. Verwenden Sie diesen Parameter, um das API-Verhalten dynamisch anzupassen und Inhalte zurückzugeben.
Der Eingabeaufforderungsordner muss über eine Standardtastatur.yml zum Generieren von Blasen verfügen. Die Eingabeaufforderungswörter des Systems müssen den Eingabeaufforderungsregeln des JSON-Blasengenerators entsprechen.
Konfigurationsdateien sollten dem folgenden YAML-Format folgen. Hier wird eine Beispielkonfigurationsdatei bereitgestellt, die zeigt, wie Dialoginhalte für verschiedene Rollen definiert werden:
Prompt :
- role : " system "
content : " Welcome to the system. How can I assist you today? "
- role : " user "
content : " I need help with my account. "
- role : " assistant "
content : " I can help you with that. What seems to be the problem? "
- role : " user "
content : " aaaaaaaaaa! "
- role : " assistant "
content : " ooooooooo? "
settings :
# 以下是通用配置项 和config.yml相同
useSse : true
port : 46233
/gensokyo
Endpunkt an Das System unterstützt zusätzliche prompt
und api
Parameter bei Anfragen an den /gensokyo
-Endpunkt. Die api
-Parameter ermöglichen die Angabe vollständiger Endpunkte wie /conversation_ernie
. Um diese Funktion zu aktivieren, müssen Sie die allapi
-Option in der Konfiguration aktivieren.
Beispielanfrage:
GET /gensokyo?prompt=example&api=conversation_ernie
Liste der unterstützten Endpunkte: (Konfiguration erforderlich: allApi: true)
http . HandleFunc ( "/conversation_gpt" , app . ChatHandlerChatgpt )
http . HandleFunc ( "/conversation_hunyuan" , app . ChatHandlerHunyuan )
http . HandleFunc ( "/conversation_ernie" , app . ChatHandlerErnie )
http . HandleFunc ( "/conversation_rwkv" , app . ChatHandlerRwkv )
http . HandleFunc ( "/conversation_tyqw" , app . ChatHandlerTyqw )
http . HandleFunc ( "/conversation_glm" , app . ChatHandlerGlm )
/conversation
Ähnlich wie /gensokyo
unterstützt der Endpunkt /conversation
zusätzliche prompt
.
Beispielanfrage:
GET /conversation?prompt=example
prompt
Parameteranalyse Der bereitgestellte prompt
verweist auf die entsprechende YAML-Datei im Ordner /prompts
im ausführbaren Verzeichnis (z. B. xxxx.yml
, wobei xxxx
der Wert prompt
ist).
Durch das Schreiben einer großen Anzahl von YML-Dateien mit Eingabeaufforderungen können Sie die Charakterkarten wechseln. Mit demselben Charakter können Sie Handlungsstränge und verschiedene Szenen wechseln.
Informationen zum Konfigurationsformat der YAML-Datei finden Sie im Abschnitt zum Format der YAML-Konfigurationsdatei . Die unten aufgeführten Konfigurationselemente unterstützen dynamisches Überschreiben in Anfragen:
Jeder Parameter implementiert die Konfigurationsabdeckung
Wenn es Auslassungen gibt und die Konfigurationsabdeckung unterstützt werden muss, reichen Sie bitte ein Problem ein.
Alle Bool-Werte müssen in der von der Konfigurationsdatei abgedeckten YML angegeben werden, andernfalls werden sie als falsch betrachtet.
Die dynamische Konfigurationsüberschreibung ist eine von mir selbst entwickelte Funktion, mit der Sie eine Rekursion zwischen Konfigurationsdateien erreichen können. Sie können beispielsweise „prompt=a“ in Ihrer Middleware übergeben, „Lotus“ angeben, um sich selbst in „a.yml“ aufzurufen, und „Weiter“ angeben Prompt-Parameter in der Lotus-Adresse als b, b gibt c an, c gibt d an und so weiter.
Dieses Projekt implementiert einen prompten Wortkontrollfluss und eine steuerbare Kontextkonstruktionsmethode. Basierend auf den mehreren in diesem Projekt implementierten Konfigurationsdateien können bedingte Sprünge und Wechsel zwischen Konfigurationsdateien realisiert werden.
Es ermöglicht Benutzern, nach bestimmten Bedingungen in der Reihenfolge und optional zwischen mehreren Sätzen von Aufforderungswörtern zu zirkulieren, und realisiert Text-Liebesspiele, Abenteuerspiele, nicht kontinuierliche Handlungsstränge mit mehreren Zweigen und andere Aufgaben.
- [x] promptMarks :
- BranchName : "去逛街路上"
Keywords : ["坐车", "走路", "触发"]
- BranchName : "在家准备"
Keywords : ["等一下", "慢慢", "准备"]
- [x] enhancedQA : true
- [x] promptChoicesQ :
- Round : 1
ReplaceText : "回家吧"
Keywords : ["我累了", "不想去了"]
- Round : 2
ReplaceText : "我们打车去"
Keywords : ["快点去", "想去", "早点"]
- Round : 3
ReplaceText : "我们走着去"
Keywords : ["不着急", "等下"]
- Round : 1
ReplaceText : "放松一下"
Keywords : [] # 相当于 enhancedChoices = false
- [x] promptChoicesA : 同上。
- [x] promptCoverQ : 只有Q没有A,格式同上,Choices是附加,cover是覆盖。
- [x] promptCoverA : # 同上
- [x] switchOnQ :
- round : 1
switch : ["故事退出分支", "下一个分支"]
keywords : ["不想", "累了", "想", "不累"]
- [x] switchOnA :
- round : 1
switch : ["晚上分支"]
keywords : ["时间不早了"]
- [x] exitOnQ :
- round : 1
keywords : ["退出", "忘了吧", "重置", "无聊"]
- [x] exitOnA :
- round : 1
keywords : ["退出", "我是一个AI", "我是一个人工", "我是一个基于"]
- [x] envType : 0 # 0=不使用场景描述, 1=在本轮llm回复前发送场景描述, 2=在本轮llm回复后发送场景描述, 场景描述支持[image:xxx][pic:xxx][图片:xxx][背景:xxx]标签, xxx为相对或绝对路径, 需在exe运行目录下
- [x] envPics : [] # 现阶段ai速度太慢,人工指定,数组代表多个,每个数组成员以1: 2: 开始代表对应第几轮.
- [x] envContents : [] # 如果要跳过某个轮次,直接指定文字是2: 图片也是2: 代表本轮文图是空的.
- [x] promptChanceQ :
- probability : 50
text : "让我们休息一下"
- probability : 30
text : "继续前进"
- probability : 70
text : "停下来看看周围"
- probability : 10
text : "尝试一些新东西"
Die oben genannten Parameter befinden sich alle im Einstellungsabschnitt der Multikonfigurationsdatei. Sie können die Länge der Eingabeaufforderungswörter für jede Szene und die Länge jeder Szeneneingabe promptMarksLength bestimmen, um die Granularität der Handlung zu steuern.
Story-Modus-Auslösemethode 1, Middleware-Steuerung, Aufrufen des /gensokyo-Ports selbst und Anhängen verschiedener Eingabeaufforderungsparameter sowie manuelles Abschneiden
Legen Sie die http-API-Adresse des ob11-Roboter-Frameworks in gsk-llm fest. Die ob11-Plug-in-Anwendung ist nicht für das Senden von Nachrichten verantwortlich. Als Kontroll-Middleware gibt sie Entwicklern die Freiheit, dies zu tun die Bedingungen selbst kontrollieren.
Die zweite Methode zum Auslösen des Story-Modus besteht darin, Zweige basierend auf Schlüsselwörtern automatisch zu wechseln, indem switchOnQ und switchOnA in der Standardkonfigurationsdatei config.yml konfiguriert werden.
In Kombination mit der Fähigkeit der Konfigurationsdatei in den Eingabeaufforderungsparametern, die Story voranzutreiben, kann eine grundlegende KI-Storyline mit Schwerpunkt auf Eingabeaufforderungswörtern realisiert werden. Darüber hinaus ist es auch erforderlich, für jede prompt.yml eine entsprechende -keyboard.yml zu entwerfen Blasen erzeugen.
Die Schlüsselwörter von promptMarks sind [], was bedeutet, dass das Drücken von promptMarksLength zum Wechseln von Prompt-Word-Dateien die von dieser Prompt-Word-Datei verwaltete Kontextlänge darstellt.
Wenn promptMarksLength kleiner als 0 ist, werden die nachfolgenden Zweige von promptMarks gelesen und zufällig von ihnen umgeschaltet. Wenn promptMarkType=1 ist,
1=Auf der Grundlage von Bedingungen ausgelöst, auch ausgelöst, wenn promptMarksLength erreicht ist.
Einzelheiten zur Konfiguration finden Sie unter Process Control-Promptmarks.md
Dieser Zweig wird ausgelöst, wenn der Benutzer und das Modell die Markierung aussprechen (Sie müssen das Aufforderungswort selbst schreiben, damit llm es gemäß den Bedingungen sprechen kann.)
Sie können die Eingabeaufforderungswörter des Systems und die Qualitätssicherung des aktuellen Story-Fragments verwenden, um die KI anzuweisen, die mit Ihnen vereinbarten Umschaltwörter auszugeben, wodurch das Design mehrerer Triggerwörter für jeden Zielzweig realisiert wird, sodass das große Modell über die Entwicklung entscheiden kann Die Richtung der Geschichte selbst bestimmen.
Wenn „EnhancedQA“ falsch ist, wird die vordefinierte QA in der Konfigurationsdatei oben zur Benutzer-QA hinzugefügt, die im Speicher von llm vorhanden ist (ohne die gesamte Dialogrichtung zu beeinflussen), was eine schwache Auswirkung hat
Wenn „EnhancedQA“ wahr ist, habe ich versucht, die Position der vordefinierten QA in der Konfigurationsdatei von oben nach unten in den Vordergrund der aktuellen Konversation des Benutzers zu verschieben, aber der Effekt war nicht ideal.
Derzeit wird es mit der historischen Qualitätssicherung des aktuellen Benutzers gemischt und integriert, um die Benutzereingaben bis zu einem gewissen Grad zu leiten und so die Richtung des Story-Prozesses zu beeinflussen.
Der Parameter „Configuration Control Flow“ wird eingeführt. Dabei handelt es sich um eine Methode, die weniger flexibel als der AI-Agent ist, aber eine höhere Plotsteuerbarkeit, eine geringere Generierungsgeschwindigkeit und geringere Kosten aufweist.
promptChoicesQ & promptChoicesA Dokumentation: Process control-promptchoicesQ Process control-promptCoverQ Process control-promptChanceQ
switchOnQ bedeutet, den aktuellen Zweig zu wechseln, wenn passender Text in Q gefunden wird. Dasselbe gilt für switchOnA und seine Konfigurationsmethode ist dieselbe wie promptChoices.
Prozesskontrolle-EinschaltenQA
exitOnQ bedeutet, dass der aktuelle Zweig verlassen wird, wenn das angegebene Schlüsselwort erkannt wird. Prozesskontrolle-AusgangQA
promptMarks, switchOnQ und switchOnA sind funktional gleich. Sie springen alle basierend auf Schlüsselwörtern zu Zweigen, unabhängig von Runden oder QA, und unterscheiden sich von Q und A, von Runden und von Implementierungsdetails. Springen.
Wenn es feste Zweige gibt, die nicht gewechselt werden müssen, setzen Sie bitte die promptMarksLength des yml auf 99999
promptMarksLength: 99999
Dadurch soll verhindert werden, dass versehentlich zu einem nicht vorhandenen Zweig gewechselt wird, was zu Sitzungsfehlern führen kann.
Der Konfigurationskontrollfluss ist einfach und intuitiv. Die Konfigurationsdatei ist einfach zu verwalten und kann die Konfigurationsdateiregeln direkt erlernen Aktualisieren Sie die Dialoglogik ohne Programmierkenntnisse.
Hohe Handlungssicherheit: Bei gleicher Eingabe und Konfiguration ist die Handlungsrichtung im Allgemeinen konsistent, was sehr wichtig ist, um die Kohärenz und Vorhersehbarkeit der Dialoghandlung sicherzustellen.
Die Kosten sind gering und der Kontext wird geschickt kombiniert und ersetzt, anstatt von mehreren KIs gleichzeitig verarbeitet zu werden. Es verbraucht fast die gleiche Menge an Token wie eine normale Konversation und spart so Geld.
Es ist schnell, generiert Ergebnisse wie eine normale Dialog-Qualitätssicherung und schreibt Handlungsstränge wie Spielskripte.
Kostengünstige KI-Story und neuartige Lösungen, die für einzelne Entwickler und kleine Entwicklungsteams geeignet sind. Mit der Verbesserung des Modells und der schnellen Wortwirkung wird sich der Effekt direkt verbessern.
Wenn für Dialogplot-Chat-Szenarien der Plot relativ fest ist, der Dialogpfad voreingestellt ist und die Aktualisierungshäufigkeit nicht hoch ist, ist die Verwendung des Konfigurationskontrollflusses besser geeignet, da er ein hohes Maß an Steuerbarkeit und eine einfache Handhabung bietet -Verstehen der Managementmethode.
Wenn das Dialogsystem ein hohes Maß an Interaktivität und Personalisierung erfordert oder die Handlungsänderungen komplex sind und dynamisch an das spezifische Feedback und Verhalten des Benutzers angepasst werden müssen, dann ist es möglicherweise sinnvoller, eine KI-basierte Agentenlösung zu verwenden erfordert höhere technische Investitionen und Wartungskosten.
In diesem Abschnitt werden spezifische Endpunktinformationen für die Kommunikation mit der API beschrieben.
Eigentum | Einzelheiten |
---|---|
URL | http://localhost:46230/conversation |
Verfahren | POST |
Der Anforderungstext, den der Client an den Server senden soll, muss im JSON-Format vorliegen. In der folgenden Tabelle werden der Datentyp und die Beschreibung jedes Felds aufgeführt.
Feldname | Typ | beschreiben |
---|---|---|
message | Zeichenfolge | Der Inhalt der vom Benutzer gesendeten Nachricht |
conversationId | Zeichenfolge | Eindeutiger Bezeichner für die aktuelle Konversationssitzung |
parentMessageId | Zeichenfolge | Der Bezeichner der vorherigen Nachricht, die dieser Nachricht zugeordnet ist |
Das folgende JSON-Objekt zeigt die Struktur des Anfragetextes beim Senden einer Anfrage an diesen API-Endpunkt:
{
"message" : "我第一句话说的什么" ,
"conversationId" : " 07710821-ad06-408c-ba60-1a69bf3ca92a " ,
"parentMessageId" : " 73b144d2-a41f-4aeb-b3bb-8624f0e54ba6 "
}
In diesem Beispiel wird gezeigt, wie ein Anforderungstext erstellt wird, der den Nachrichteninhalt, eine eindeutige Kennung für die aktuelle Konversationssitzung und eine Kennung für die vorherige Nachricht enthält. Dieses Format stellt sicher, dass die angeforderten Daten nicht nur den Verarbeitungsregeln des Servers entsprechen, sondern erleichtert auch die Aufrechterhaltung der Kontinuität des Konversationskontexts.
Eine erfolgreiche Antwort gibt den Statuscode 200
und ein JSON-Objekt mit den folgenden Feldern zurück:
Feldname | Typ | beschreiben |
---|---|---|
response | Zeichenfolge | Der Inhalt der Antwortnachricht der Schnittstelle |
conversationId | Zeichenfolge | Eindeutiger Bezeichner für die aktuelle Konversation |
messageId | Zeichenfolge | Eindeutiger Bezeichner der aktuellen Nachricht |
details | Objekt | Fügen Sie zusätzliche Nutzungsdetails hinzu |
usage | Objekt (im details ) | Nutzungsdetails wie die Anzahl der Token |
{
"response" : "回答内容" ,
"conversationId" : " c9b8746d-aa8c-44b3-804a-bb5ad27f5b84 " ,
"messageId" : " 36cc9422-da58-47ec-a25e-e8b8eceb47f5 " ,
"details" : {
"usage" : {
"prompt_tokens" : 88 ,
"completion_tokens" : 2
}
}
}
Kann auf verschiedenen Architekturen ausgeführt werden (natives Android wird noch nicht unterstützt, sqlitev3 erfordert cgo, Arm-Plattform oder andere Architekturen, Sie können versuchen, es lokal unter der entsprechenden Systemarchitektur zu kompilieren).
Die API-Methode ruft den QQ-Kanal für den direkten Zugriff auf
Parameter der Prüferanforderung
Wenn die Anfrage als Prüfer an einen anderen GSK LLM gesendet werden muss, sollte das JSON-Format wie folgt zurückgegeben werden:
{ "result" : %s }
%s
stellt hier einen Platzhalter dar, der durch einen bestimmten Gleitkommawert ersetzt wird.
Ergebnisse der Anfrage zur Blasengenerierung
Wenn Sie einen anderen GSK-LLM zum Generieren von Blasen anfordern, sollte das JSON-Format wie folgt zurückgegeben werden:
[ " " , " " , " " ]
Das bedeutet, dass das Ergebnis der Blasengenerierung ein Array mit drei Strings ist. Dieses Format wird verwendet, um bei der Rückgabe von Ergebnissen drei verschiedene Blasen oder weniger als oder gleich 3 anzugeben.
Es ist nicht mehr erforderlich, mehrere gsk-llm zu öffnen, um agentenähnliche Funktionen zu implementieren. Basierend auf der neuen Multi-Konfigurationsabdeckung, Eingabeaufforderungsparametern und Lotus-Funktionen können Sie die Implementierung komplexer Funktionen wie Blasengenerierung und Story-Fortschritt selbst anfordern.
GetAIPromptkeyboardPath kann eine eigene Adresse sein oder Eingabeaufforderungsparameter enthalten.
Wenn Sie Middleware zum Festlegen von Eingabeaufforderungsparametern verwenden, befindet sich die Konfiguration im Eingabeaufforderungsordner und hat das Format xxx-keyboard.yml. Wenn Sie keine Middleware verwenden, geben Sie bitte die Eingabeaufforderungsparameter im Pfad an und platzieren Sie die entsprechende xxx.yml in den Eingabeaufforderungen Ordner. )
Legen Sie die /conversation-Adresse der gsk-llm-Zusammenarbeit der System-Eingabeaufforderungswörter fest. Es wird vereinbart, dass die System-Eingabeaufforderungswörter ein Text-JSON-Array zurückgeben müssen (3).
Dieses Projekt bezieht sich auf die Ideen der folgenden bekannten Projekte und implementiert ein vereinfachtes AI-Textkontrollfluss-Konfigurationsformat.
Rasa
Schnur
Inklewriter