LLM (大規模言語モデル) とマルチモーダル インテリジェンス システムのハブであるlollms webui (Lord of Large Language Multimodal Systems: すべてを支配する 1 つのツール) へようこそ。このプロジェクトは、さまざまな LLM やその他の AI モデルにアクセスして幅広いタスクに利用するためのユーザーフレンドリーなインターフェイスを提供することを目的としています。執筆、コーディング、データの整理、画像の分析、画像の生成、音楽の生成、または質問への回答の検索でサポートが必要な場合でも、 lollms webuiあなたをサポートします。
さまざまなドメインにわたる 500 を超える AI 専門家によるコンディショニングと、複数のドメインにわたる 2,500 を超える微調整されたモデルにアクセスできる包括的なツールとして、あらゆる問題に対して即座にリソースを得ることができます。車の修理が必要かどうか、または Python、C++、または JavaScript でのコーディング支援が必要かどうか。人生の決断が間違っていたことに落ち込んでいるのに、どうすればよいか分からないのですか?ロルムズに聞いてください。現在の症状に基づいて今後の健康状態についてのガイダンスが必要な場合、当社の医療支援 AI が潜在的な診断を取得し、適切な医療を受けるようガイドします。契約解釈などの法的問題で行き詰まった場合は、家から出ずに、お気軽に弁護士に相談して洞察を得ることができます。長い講義に苦戦している生徒を助けるだけでなく、評価中に特別なサポートも提供するので、後で多くの人が混乱する可能性がある行に沿って読むだけではなく、概念を適切に理解できるようになります。エンターテイメントが必要ですか?次に、Laughter Botand を使用して、ダンジョンズ&ドラゴンソーをプレイしながら目から涙が出るまでヒステリックな笑いを楽しんだり、クリエイティブ ストーリー ジェネレーターのおかげで一緒にクレイジーな物語を作り上げたりしましょう。イラストの仕事が必要ですか?心配はいりません。アートボットが対応してくれました。そして最後に重要なことですが、LordOfMusic は個々の仕様に従って音楽を生成するためにここにあります。つまり、可能なことはすべて Lollms と呼ばれる 1 つのプラットフォーム内で達成できるため、一人で退屈な夜にさようならを言うことになります...
このツールをテストし、より使いやすくするために協力してくれたすべてのユーザーに感謝します。
Windows を使用している場合は、リリース ページにアクセスし、Windows インストーラーをダウンロードしてインストールします。
scriptsフォルダーからインストールスクリプトをダウンロードして実行します。インストール スクリプトは次のとおりです。
win_install.bat
。linux_install.sh
。mac_install.sh
。v 9.4 以降、多くのサービスでは別の環境の作成が必要であり、lolms は環境を完全に制御する必要があるため、手動インストールを行うことはお勧めできません。したがって、独自の conda セットアップを使用してインストールすると、サービスをインストールできなくなり、チャット インターフェイスへの lollms の使用が減ります (xtts も快適もなく、vllm や Petals などによる高速生成もありません)。
Lollms のスマート ルーティング機能は、精度を高めるために適切なモデルを選択するだけではありません。これにより、コストとスピードという 2 つの重要な要素に基づいてテキスト生成プロセスを最適化できるようになります。
お金のための最適化:
価格が異なる複数のテキスト生成サービスを使用していると想像してください。一部のモデルは非常に強力ですが、高額な価格が付いていますが、他のモデルは機能がわずかに劣るものの、より予算に優しいオプションを提供しています。スマート ルーティングを使用すると、この価格差を有利に活用できます。
速度の最適化:
特に大量のコンテンツや時間に敏感なタスクを扱う場合、速度もテキスト生成における重要な要素です。スマート ルーティングを使用すると、次の方法で速度を優先できます。
使用例:
結論:
スマート ルーティングは、コストと速度の両方でテキスト生成プロセスを最適化できる多用途ツールです。モデルの階層を活用し、プロンプトの複雑さに基づいて選択を動的に調整することで、効率、精度、費用対効果の完璧なバランスを実現できます。
このツールを使用すると、ユーザーは次のガイドラインに従うことに同意したことになります。
lollms webuiユーザー認証が組み込まれておらず、主にローカルでの使用を目的として設計されていることに注意してください。適切なセキュリティ対策を講じずに WebUI を外部アクセスにさらすと、潜在的な脆弱性が発生する可能性があります。
LoLLM へのリモート アクセスが必要な場合は、次のセキュリティ ガイドラインに従うことを強くお勧めします。
ヘッドレス モードを有効にする: ヘッドレス モードを有効にすると、生成 API のみが公開され、他の潜在的に脆弱なエンドポイントはオフになります。これは攻撃対象領域を最小限に抑えるのに役立ちます。
安全なトンネルのセットアップ: LoLLM を実行しているローカルホストとアクセスが必要なリモート PC の間に安全なトンネルを確立します。これにより、2 つのデバイス間の通信が確実に暗号化され、保護されます。
構成設定の変更: セキュアなトンネルをセットアップした後、 /configs/local_config.yaml
ファイルを編集し、次の設定を調整します。
host : 0.0.0.0 # Allow remote connections
port : 9600 # Change the port number if desired (default is 9600)
force_accept_remote_access : true # Force accepting remote connections
headless_server_mode : true # Set to true for API-only access, or false if the WebUI is needed
これらのセキュリティ慣行に従うことで、リモート アクセスを有効にするときに、LoLLMs インスタンスとそのユーザーを潜在的なセキュリティ リスクから保護できます。
セキュリティを優先し、システムと機密情報を保護するために必要な予防措置を講じることが重要であることを忘れないでください。 LoLLM のセキュリティに関してさらに質問や懸念がある場合は、ドキュメントを参照するか、コミュニティに問い合わせて支援を求めてください。
安全を確保し、責任を持って LoLLM を使用して楽しんでください。
大規模言語モデルは、さまざまな目的に使用できる素晴らしいツールです。 Lollms は、この能力を利用してユーザーの生産性を向上させるために構築されました。ただし、これらのモデルには限界があり、人間の知性や創造性を置き換えるものではなく、大量のデータ内で見つかったパターンに基づいて提案を提供することでそれを強化すべきであることに留意する必要があります。責任を持ってそれらをどのように使用するかを選択するのは各人次第です。
システムのパフォーマンスは、使用されるモデル、そのサイズ、トレーニングされたデータセットによって異なります。一般的に、言語モデルのトレーニング セットが大きいほど (例が多いほど)、小規模なシステムとは対照的に、そのようなシステムを使用すると、より良い結果が得られます。ただし、特定のプロンプトから生成される出力が常に完璧であるという保証はなく、さまざまな理由によるエラーが含まれる可能性があります。したがって、専門家に直接相談することなく、薬の選択や経済的な決定などの重大な問題にこのツールを使用しないように注意してください。
このリポジトリは ApacheLicense バージョン 2.0 のコードを使用しています。使用および配布に関して付与される権利の詳細については、ライセンス ファイルを参照してください。
パリネオ2023