Este repositorio proporciona una manera rápida y sencilla de ejecutar la aplicación Llama Guard en su máquina local y explorar la seguridad de LLM.
Llama Guard es un marco defensivo diseñado para detectar y mitigar posibles riesgos de seguridad asociados con modelos de lenguaje grande (LLM). Ayuda a los desarrolladores e investigadores a crear aplicaciones LLM más seguras y confiables.
Implementación de Nemo Guardrail: la carpeta llama-guard contiene una implementación de NeMo Guardrail, que ofrece flexibilidad y personalización para sus necesidades específicas. Aplicaciones Streamlit: Se proporcionan dos aplicaciones Streamlit para realizar pruebas convenientes: llama-guard-only.py: Pruebe las indicaciones de entrada y las respuestas directamente con Llama Guard. llama_2_with_llama-guard.py: ejecuta Llama Guard con el modelo Llama 2 13b previamente entrenado para realizar pruebas en el mundo real.
Publicación de blog: Profundice su comprensión de la seguridad de Llama Guard y LLM con esta publicación de blog informativa: https://balavenkatesh.medium.com/securing-tomorrows-ai-world-today-llama-guard-defensive-strategies-for-llm- aplicación-c29a87ba607f