fireside chat
1.0.0
(旧「キャンドルチャット」)
Axum Websocket、SQLite データベース、および Tauri にパッケージ化された Leptos (Wasm) フロントエンド上の HuggingFace/Candle を使用して、純粋な Rust で実装された LLM インターフェイス。
紹介ビデオをご覧ください:
このプロジェクトは、多くの大規模言語モデル (LLM) を使用したシングルおよびマルチユーザー チャット用に設計されています。
ファイルをConfig Directory
に置くことで、モデルとデフォルトの推論設定を構成できます。これは、フロントエンドでモデルを選択すると自動的に構成されますが、必要に応じてモデルを手動で追加することもできます。
例:
# config_model.yaml
repo_id : DanielClough/Candle_Puffin-Phi-v2
q_lvl : q2k
revision : main
tokenizer_file : null
weight_file : null
quantized : true
cpu : false
use_flash_attn : false
template : ShareGPT
# config_inference.yaml
temperature :
top_p :
seed : 299792458
sample_len : 150
repeat_penalty : 1.3
repeat_last_n : 150
load_context : false
role :
load_context: true
の場合、 <Config Directory>/fireside-chat/context/
に (small) を追加できます。大きなファイルはメモリ不足エラーを引き起こす可能性があります。
Config Directory
$HOME/.config/fireside-chat
です
Config Directory
$HOME/.cache/hugging-face
です
環境変数FIRESIDE_BACKEND_URL
およびFIRESIDE_DATABASE_URL
を使用してコンパイルして、 localhost
以外のサーバーを呼び出すことができます。
これは、 tauri.conf.json
またはシステム環境で構成できます。
# eg. for Linux
export FIRESIDE_BACKEND_URL=192.168.1.6 && trunk serve