llm-chain
es una colección de cajas de óxido diseñada para ayudarlo a crear aplicaciones LLM avanzadas como chatbots, agentes y más. Como plataforma completa de LLM-OPS, tenemos un fuerte soporte tanto para la nube como para los LLM alojados localmente. También proporcionamos un soporte robusto para plantillas de inmediato y encadenamiento de indicaciones en cadenas de múltiples pasos, lo que permite tareas complejas que LLMS no puede manejar en un solo paso. También proporcionamos integraciones de tiendas vectoriales que hacen que sea fácil dar a su modelo de memoria a largo plazo y conocimiento de la materia. Esto le permite construir aplicaciones sofisticadas.
Para ayudarlo a comenzar, aquí hay un ejemplo que demuestra cómo usar llm-chain
. Puede encontrar más ejemplos en la carpeta de ejemplos en el repositorio.
let exec = executor ! ( ) ? ;
let res = prompt ! (
"You are a robot assistant for making personalized greetings" ,
"Make a personalized greeting for Joe"
)
. run ( parameters ( ) ! , & exec )
. await ? ;
println ! ( "{}" , res ) ;
➡️ Tutorial: Comience con la cadena LLM ➡️ Start-start : Crear proyecto basado en nuestra plantilla
llm.rs
: Use LLMS en Rust sin dependencias en el código C ++ con nuestro soporte para llm.rs
llm-chain
. Para comenzar a usar llm-chain
, agrégalo como una dependencia en su Cargo.toml
(necesita óxido 1.65.0 o más nuevo):
[ dependencies ]
llm-chain = " 0.12.0 "
llm-chain-openai = " 0.12.0 "
Los ejemplos de llm-chain-openai
requieren que establezca la variable de entorno OPENAI_API_KEY
que puede hacer así:
export OPENAI_API_KEY= " sk-YOUR_OPEN_AI_KEY_HERE "
Luego, consulte la documentación y los ejemplos para aprender cómo crear plantillas de inmediato, cadenas y más.
¡Agradecemos calurosamente las contribuciones de todos! Si está interesado en ayudar a mejorar llm-chain
, consulte nuestro archivo CONTRIBUTING.md
para obtener pautas y mejores prácticas.
llm-chain
tiene licencia bajo la licencia MIT.
Si tiene alguna pregunta, sugerencia o retroalimentación, no dude en abrir un problema o unirse a nuestra discordia comunitaria. Siempre estamos emocionados de saber de nuestros usuarios y aprender sobre sus experiencias con llm-chain
.
Esperamos que disfrute usando llm-chain
para desbloquear todo el potencial de los modelos de idiomas grandes en sus proyectos. ¡Feliz codificación! ?