guardrails demo
1.0.0
このリポジトリは、ローカル マシン上で Llama Guard アプリケーションを実行し、LLM セキュリティを調査するための迅速かつ簡単な方法を提供します。
Llama Guard は、大規模言語モデル (LLM) に関連する潜在的なセキュリティ リスクを検出して軽減するように設計された防御フレームワークです。開発者や研究者がより安全で信頼性の高い LLM アプリケーションを構築するのに役立ちます。
Nemo Guardrail 実装: llama-guard フォルダーには NeMo Guardrail 実装が含まれており、特定のニーズに合わせた柔軟性とカスタマイズを提供します。 Streamlit アプリケーション: 便利なテストのために 2 つの Streamlit アプリケーションが提供されています: llama-guard-only.py: Llama Guard を使用して入力プロンプトと応答を直接テストします。 llama_2_with_llama-guard.py: 実際のテスト用に、事前トレーニングされた Llama 2 13b モデルを使用して Llama Guard を実行します。
ブログ投稿: この有益なブログ投稿で、Llama Guard と LLM セキュリティについての理解を深めてください: https://balavenkatesh.medium.com/securing-tomorrows-ai-world-today-llama-guard-defensive-strategies-for-llm-アプリケーション-c29a87ba607f