Chinesisch |
Multi-Plattform-Modellzugriffs-, Skalierungs- und Mehrfachausgangsformate, Robot-Plug-In, die große Sprachmodell-Chat-Dienste bereitstellen.
Projektstatus: stetig iteriert in die offizielle Version von 1.0 (derzeit in die Release -Kandidatenstufe eingegeben)
Voreinstellungen | Plug-in-Modus und Streaming-Ausgabe | Ausgabe des Bildwechsels |
---|---|---|
Wir können dieses Plug-In direkt unter Koishi installieren, um grundlegende Funktionen ohne zusätzliche Konfiguration zu verwenden.
Lesen Sie dieses Dokument, um mehr zu erfahren.
Wir unterstützen derzeit die folgenden Modelle/Plattformen:
Modell/Plattform | Zugangsmethode | Merkmal | Dinge zu beachten |
---|---|---|---|
Openai | Lokaler Kunde, offizieller API -Zugang | Anpassbare Persönlichkeit, den Plug-in-/Browsing-Modus und andere Chat-Modi unterstützen | Der API -Zugang wird berechnet |
Azure Openai | Lokaler Kunde, offizieller API -Zugang | Anpassbare Persönlichkeit, den Plug-in-/Browsing-Modus und andere Chat-Modi unterstützen | Der API -Zugang wird berechnet |
Google Gemini | Lokaler Kunde, offizieller API -Zugang | Schnelle Geschwindigkeit, Leistung übertrifft GPT-3,5 | Müssen Gemini Access -Konto haben und kann berechnen |
Claude API | Lokaler Kunde, offizieller API -Zugang | Extrem großer Kontext kann in den meisten Fällen GPT 3.5 überschreiten, erfordert API -Schlüssel, Gebühren | Kann teuer sein und unterstützt den Funktionsaufruf nicht |
Tongyi Qian Fragen | Lokaler Kunde, offizieller API -Zugang | Ali produziert inländische Modelle mit kostenlosen Quoten | Der tatsächliche Messeffekt ist etwas besser als der von Zhishu |
Weisheit | Lokaler Kunde, offizieller API -Zugang | Chatglm, Neuankömmlinge können kostenlose Token -Quoten erhalten | Der tatsächliche Testerffekt ist etwas besser als Iflytek Spark |
Iflytek Spark | Lokaler Kunde, offizieller API -Zugang | Inländisches Modell, Neuankömmlinge können kostenlose Token -Quoten erhalten | Der tatsächliche gemessene Effekt entspricht ungefähr GPT 3.5 |
Wen Xins Worte | Lokaler Kunde, offizieller API -Zugang | Modell Modell Baidu Serie | Der tatsächliche Testerffekt ist etwas schlechter als Iflytek Spark |
Hunyuan Big Model | Lokaler Kunde, offizieller API -Zugang | Tencent -Reihe großer Modelle | Der tatsächliche Testeffekt ist besser als mit dem Xinyiyan |
Ollama | Lokaler Kunde, erstellte API -Zugang | Die bekannte Open-Source-Modellsammlung, unterstützt die CPU/GPU-Hybrid-Bereitstellung, kann lokal erstellt werden | Sie müssen Ihre eigene Backend -API erstellen und bestimmte Konfigurationen benötigen |
Gpt frei | Lokaler Kunde, offizieller API -Zugang | Lokale Weiterleitung verwendet GPT -Modelle anderer Websites, konfiguriert automatisch Websites usw. ohne manuelle Registrierung erforderlich | Kann jederzeit scheitern und instabil sein |
Chatglm | Lokaler Kunde, selbstgebauter Backend-API-Zugriff | Kann vor Ort gebaut werden, Rundung ist frei von Geld | Sie müssen Ihre eigene Backend -API erstellen, die bestimmte Konfigurationen erfordert. |
Rwkv | Lokaler Kunde, erstellte API -Zugang | Bekanntes Open-Source-Modell kann lokal erstellt werden | Sie müssen Ihre eigene Backend -API erstellen und bestimmte Konfigurationen benötigen |
Wir unterstützen das Modell, um Netzwerk -Suchfunktionen bereitzustellen:
Ab Version 1.0.0-alpha.10
verwenden wir anpassbarere Voreinstellungen. Die neue Persönlichkeit Preset verwendet YAML als Konfigurationsdatei.
Sie können hier klicken, um unsere Persönlichkeitsdatei anzuzeigen, die mit Standardeinstellung geliefert wird: Catgirl.yml
Unser Standard -Voreinsatz -Ordnerpfad ist你当前运行插件的koishi 目录的路径+/data/chathub/presets
.
Alle voreingestellten Dateien werden aus dem obigen Ordner geladen. Daher können Sie voreingestellte Dateien in diesem Ordner frei hinzufügen und bearbeiten und dann den Befehl verwenden, um die Persönlichkeitsvoreinstellungen zu wechseln.
Weitere Informationen finden Sie in diesem Dokument.
Führen Sie die folgenden Anweisungen in jedem Koishi -Vorlageprojekt aus, um Chatluna zu klonen:
# yarn
yarn clone ChatLunaLab/chatluna
# npm
npm run clone ChatLunaLab/chatluna
Sie können ChatLunaLab/chatluna-koishi
durch Ihre eigene Projektadresse nach Gabel ersetzen.
Bearbeiten Sie dann die Datei tsconfig.json
im Stammverzeichnis des Vorlagenprojekts und fügen Sie den Chatluna -Projektpfad in compilerOptions.paths
hinzu.
{
"extends" : " ./tsconfig.base " ,
"compilerOptions" : {
"baseUrl" : " . " ,
"paths" : {
"koishi-plugin-chatluna-*" : [ " external/chatluna/packages/*/src " ]
}
}
}
Da das Projekt selbst komplex ist, muss die anfängliche Verwendung einmal erstellt werden.
# yarn
yarn workspace @root/chatluna-koishi build
# npm
npm run build -w @root/chatluna-koishi
Beenden! Jetzt können Sie das Template -Projekt mit yarn dev
oder npm run dev
im Root -Projekt starten und Chatluna zweimal entwickeln.
Obwohl Koishi das Modul Hot Tastement (HMR) unterstützt, ist dieses Projekt möglicherweise nicht vollständig kompatibel.
Wenn Sie einen Fehler haben, wenn Sie HMR zur Entwicklung dieses Projekts verwenden, stellen Sie es bitte in Ausgabe und führen Sie die obigen Schritte aus, um das Projekt wieder aufzubauen und Koishi neu zu starten, um zu versuchen, es zu beheben.
Derzeit ist die Produktionskapazität des Chatluna -Projektteams äußerst knapp, und es gibt keine Produktionskapazität mehr, um die folgenden Ziele zu erreichen:
Willkommen, um eine Pull -Anfrage einzureichen oder sie zu besprechen, und Ihr Beitrag ist sehr willkommen!
Dieses Projekt wurde von Chatlunalab entwickelt.
Chatluna (im Folgenden als dieses Projekt bezeichnet) ist ein Dialog -Roboter -Framework, das auf großen Sprachmodellen basiert. Wir sind bestrebt, mit der Open-Source-Community zusammenzuarbeiten, um die Entwicklung der groß angelegten Modelltechnologie zu fördern. Wir fordern Entwickler und andere Benutzer nachdrücklich auf, die Open-Source-Vereinbarung einzuhalten, um sicherzustellen, dass der Rahmen und der Code dieses Projekts (und andere Derivate, die auf diesem von der Community geförderten Projekt basieren) und verwandte Derivate nicht für einen Zweck verwendet werden, der dem Land und der Gesellschaft Schaden zu Schaden zufügen kann, sowie Dienstleistungen, die nicht sicherlich geschätzt und registriert wurden.
Dieses Projekt bietet keine direkte Unterstützung für generative Dienste für künstliche Intelligenz, und Benutzer müssen die von Organisationen oder Einzelpersonen verwendete Algorithmus -API erhalten, die Produktionsdienste für künstliche Intelligenz anbieten.
Wenn Sie dieses Projekt verwendet haben, befolgen Sie bitte die Gesetze und Vorschriften der Region und nutzen Sie die Produktionskünstlern -Service -Algorithmen, die in der Region verfügbar sind.
Dieses Projekt ist nicht für die vom Algorithmus generierten Ergebnisse verantwortlich, und alle Ergebnisse und Vorgänge sind in der Verantwortung des Benutzers.
Die relevante Informationsspeicherung dieses Projekts wird vom Benutzer bezogen, und das Projekt selbst bietet keine direkte Informationen zur Informationen.
In diesem Projekt werden keine Risiken und Verantwortlichkeiten ausgenommen, die sich aus der Datensicherheit, den durch Benutzern verursachten öffentlichen Meinungsrisiken oder der irreführenden, Missbrauch, Verbreitung oder unsachgemäßer Verwendung eines Modells ergeben.
Dieses Projekt verweist auch auf andere Open -Source -Projekte beim Schreiben und besonderen Dank an die folgenden Projekte:
Koishi-Plugin-Openai
Knoten-Chatgpt-API
Poe-api
Barde
Chathub
Vielen Dank an JetBrains für die Bereitstellung dieses Projekts mit einer kostenlosen Open -Source -Lizenz für IDEs wie Webstorm.