Este repositório fornece uma maneira rápida e fácil de executar o aplicativo Llama Guard em sua máquina local e explorar a segurança do LLM.
Llama Guard é uma estrutura defensiva projetada para detectar e mitigar possíveis riscos de segurança associados a Large Language Models (LLMs). Ajuda desenvolvedores e pesquisadores a criar aplicativos LLM mais seguros e confiáveis.
Implementação Nemo Guardrail: A pasta llama-guard contém uma implementação NeMo Guardrail, oferecendo flexibilidade e personalização para suas necessidades específicas. Aplicativos Streamlit: Dois aplicativos Streamlit são fornecidos para testes convenientes: llama-guard-only.py: Teste prompts e respostas de entrada diretamente com o Llama Guard. llama_2_with_llama-guard.py: Execute o Llama Guard com o modelo Llama 2 13b pré-treinado para testes no mundo real.
Postagem no blog: Aprofunde sua compreensão sobre a segurança do Llama Guard e LLM com esta postagem informativa no blog: https://balavenkatesh.medium.com/securing-tomorrows-ai-world-today-llama-guard-defensive-strategies-for-llm- aplicativo-c29a87ba607f