? Leuchtturmbericht | ? Leuchtturmbericht |
LobeChat bietet eine selbstgehostete Version mit Vercel, Alibaba Cloud und Docker Image. Dadurch können Sie Ihren eigenen Chatbot innerhalb weniger Minuten ohne Vorkenntnisse bereitstellen.
Tipp
Erfahren Sie mehr über „Erstellen Sie Ihren eigenen LobeChat“, indem Sie es sich ansehen.
A
Bereitstellung mit Vercel, Zeabur, Sealos oder Alibaba Cloud„Wenn Sie diesen Dienst selbst auf Vercel, Zeabur oder Alibaba Cloud bereitstellen möchten, können Sie die folgenden Schritte ausführen:
Bereiten Sie Ihren OpenAI-API-Schlüssel vor.
Klicken Sie auf die Schaltfläche unten, um die Bereitstellung zu starten: Melden Sie sich direkt mit Ihrem GitHub-Konto an und denken Sie daran, OPENAI_API_KEY
(erforderlich) und ACCESS_CODE
(empfohlen) im Abschnitt mit den Umgebungsvariablen einzugeben.
Nach der Bereitstellung können Sie mit der Nutzung beginnen.
Binden Sie eine benutzerdefinierte Domäne (optional): Das DNS der von Vercel zugewiesenen Domäne ist in einigen Bereichen verschmutzt; Durch die Bindung einer benutzerdefinierten Domäne kann eine direkte Verbindung hergestellt werden.
Bereitstellung mit Vercel | Einsatz mit Zeabur | Bereitstellung mit Sealos | Bereitstellung mit RepoCloud | Bereitstellung mit Alibaba Cloud |
---|---|---|---|---|
Behalten Sie nach dem Fork nur die Upstream-Synchronisierungsaktion bei und deaktivieren Sie andere Aktionen in Ihrem Repository auf GitHub.
Wenn Sie Ihr eigenes Projekt gemäß den Ein-Klick-Bereitstellungsschritten in der README-Datei bereitgestellt haben, werden Sie möglicherweise ständig mit der Meldung „Updates verfügbar“ konfrontiert. Dies liegt daran, dass Vercel standardmäßig ein neues Projekt erstellt, anstatt dieses zu forken, was dazu führt, dass Aktualisierungen nicht genau erkannt werden können.
Tipp
Wir empfehlen Ihnen, die Bereitstellung mithilfe der folgenden Schritte erneut durchzuführen: Automatische Synchronisierung mit der neuesten Version
B
Bereitstellung mit DockerWir stellen ein Docker-Image für die Bereitstellung des LobeChat-Dienstes auf Ihrem eigenen privaten Gerät bereit. Verwenden Sie den folgenden Befehl, um den LobeChat-Dienst zu starten:
$ docker run -d -p 3210:3210 -e OPENAI_API_KEY=sk-xxxx -e ACCESS_CODE=lobe66 --name lobe-chat lobehub/lobe-chat
Tipp
Wenn Sie den OpenAI-Dienst über einen Proxy nutzen müssen, können Sie die Proxy-Adresse mithilfe der Umgebungsvariablen OPENAI_PROXY_URL
konfigurieren:
$ docker run -d -p 3210:3210 -e OPENAI_API_KEY=sk-xxxx -e OPENAI_PROXY_URL=https://api-proxy.com/v1 -e ACCESS_CODE=lobe66 --name lobe-chat lobehub/lobe-chat
Notiz
Ausführliche Anweisungen zur Bereitstellung mit Docker finden Sie im Docker-Bereitstellungshandbuch
Dieses Projekt stellt einige zusätzliche Konfigurationselemente bereit, die mit Umgebungsvariablen festgelegt werden:
Umgebungsvariable | Erforderlich | Beschreibung | Beispiel |
---|---|---|---|
OPENAI_API_KEY | Ja | Dies ist der API-Schlüssel, den Sie auf der OpenAI-Kontoseite anwenden | sk-xxxxxx...xxxxxx |
OPENAI_PROXY_URL | NEIN | Wenn Sie den OpenAI-Schnittstellen-Proxy manuell konfigurieren, können Sie dieses Konfigurationselement verwenden, um die standardmäßige Basis-URL der OpenAI-API-Anfrage zu überschreiben | https://api.chatanywhere.cn oder https://aihubmix.com/v1 Der Standardwert ist https://api.openai.com/v1 |
ACCESS_CODE | NEIN | Fügen Sie ein Passwort hinzu, um auf diesen Dienst zuzugreifen. Sie können ein langes Passwort festlegen, um ein Auslaufen zu verhindern. Wenn dieser Wert ein Komma enthält, handelt es sich um ein Passwort-Array. | awCTe)re_r74 oder rtrt_ewee3@09! oder code1,code2,code3 |
OPENAI_MODEL_LIST | NEIN | Wird zur Steuerung der Modellliste verwendet. Verwenden Sie + , um ein Modell hinzuzufügen, - um ein Modell auszublenden, und model_name=display_name , um den durch Kommas getrennten Anzeigenamen eines Modells anzupassen. | qwen-7b-chat,+glm-6b,-gpt-3.5-turbo |
Notiz
Die vollständige Liste der Umgebungsvariablen finden Sie in den Umgebungsvariablen
NPM | Repository | Beschreibung | Version |
---|---|---|---|
@lobehub/ui | lobehub/lobe-ui | Open-Source-UI-Komponentenbibliothek speziell für die Erstellung von AIGC-Webanwendungen. | |
@lobehub/icons | lobehub/lobe-icons | Beliebte SVG-Logo- und Symbolsammlung der AI / LLM-Modellmarke. | |
@lobehub/tts | lobehub/lobe-tts | Hochwertige und zuverlässige TTS/STT React Hooks-Bibliothek | |
@lobehub/lint | lobehub/lobe-lint | Konfigurationen für ESlint, Stylelint, Commitlint, Prettier, Remark und Semantic Release für LobeHub. |
Plugins bieten eine Möglichkeit, die Funktionsaufruffunktionen von LobeChat zu erweitern. Sie können verwendet werden, um neue Funktionsaufrufe und sogar neue Möglichkeiten zum Rendern von Nachrichtenergebnissen einzuführen. Wenn Sie an der Plugin-Entwicklung interessiert sind, lesen Sie bitte unseren Plugin-Entwicklungsleitfaden im Wiki.
lobe-chat-plugins: Dies ist der Plugin-Index für LobeChat. Von diesem Repository aus greift es auf index.json zu, um dem Benutzer eine Liste der verfügbaren Plugins für LobeChat anzuzeigen.
chat-plugin-template: Dies ist die Plugin-Vorlage für die LobeChat-Plugin-Entwicklung.
@lobehub/chat-plugin-sdk: Das LobeChat Plugin SDK unterstützt Sie bei der Erstellung außergewöhnlicher Chat-Plugins für Lobe Chat.
@lobehub/chat-plugins-gateway: Das LobeChat Plugins Gateway ist ein Backend-Dienst, der ein Gateway für LobeChat-Plugins bereitstellt. Wir stellen diesen Dienst mit Vercel bereit. Die primäre API POST /api/v1/runner wird als Edge-Funktion bereitgestellt.
Notiz
Das Plugin-System wird derzeit stark weiterentwickelt. Mehr erfahren Sie in den folgenden Ausgaben:
Plugin-Phase 1 : Implementieren Sie die Trennung des Plugins vom Hauptteil, teilen Sie das Plugin zur Wartung in ein unabhängiges Repository auf und realisieren Sie das dynamische Laden des Plugins.
Plugin-Phase 2 : Die Sicherheit und Stabilität der Plugin-Nutzung, genauere Darstellung abnormaler Zustände, Wartbarkeit der Plugin-Architektur und Entwicklerfreundlichkeit.
Plugin-Phase 3 : Höhere und umfassendere Anpassungsmöglichkeiten, Unterstützung für Plugin-Authentifizierung und Beispiele.
Sie können GitHub Codespaces für die Online-Entwicklung verwenden:
Oder klonen Sie es für die lokale Entwicklung:
$ Git-Klon https://github.com/lobehub/lobe-chat.git $ cd lobe-chat $ pnpm installieren $ pnpm dev
Wenn Sie weitere Einzelheiten erfahren möchten, werfen Sie bitte einen Blick in unseren Entwicklungsleitfaden.
Beiträge aller Art sind herzlich willkommen; Wenn Sie daran interessiert sind, Code beizutragen, schauen Sie sich gerne unsere GitHub-Probleme und -Projekte an, um uns zu zeigen, was in Ihnen steckt.
Tipp
Wir schaffen ein technologiegetriebenes Forum, das die Wissensinteraktion und den Ideenaustausch fördert, der in gegenseitiger Inspiration und gemeinschaftlicher Innovation gipfeln kann.
Helfen Sie uns, LobeChat besser zu machen. Gerne können Sie uns direkt Feedback zum Produktdesign und Benutzererfahrungen geben.
Hauptbetreuer: @arvinxx @canisminor1990
Jedes bisschen zählt und Ihre einmalige Spende erstrahlt in unserer Galaxie der Unterstützung! Du bist eine Sternschnuppe und hast einen schnellen und strahlenden Einfluss auf unsere Reise. Vielen Dank, dass Sie an uns glauben – Ihre Großzügigkeit führt uns blitzschnell zu unserer Mission.
⛵️ Lobe Midjourney WebUI: WebUI für Midjourney nutzt KI, um aus Textaufforderungen schnell eine große Auswahl an reichhaltigen und vielfältigen Bildern zu generieren, die Kreativität anzuregen und Gespräche zu verbessern.
? Lobe i18n: Lobe i18n ist ein Automatisierungstool für den i18n-Übersetzungsprozess (Internationalisierung), unterstützt von ChatGPT. Es unterstützt Funktionen wie die automatische Aufteilung großer Dateien, inkrementelle Aktualisierungen und Anpassungsoptionen für das OpenAI-Modell, den API-Proxy und die Temperatur.
? Lobe Commit: Lobe Commit ist ein CLI-Tool, das Langchain/ChatGPT nutzt, um Gitmoji-basierte Commit-Nachrichten zu generieren.
Copyright © 2024 LobeHub.
Dieses Projekt ist für Apache 2.0 lizenziert.