llm-chain
é uma coleção de caixas de ferrugem projetadas para ajudá-lo a criar aplicativos LLM avançados, como chatbots, agentes e muito mais. Como uma plataforma abrangente LLM-OPS, temos um forte suporte para LLMs em nuvem e hospedado localmente. Também fornecemos suporte robusto para modelos imediatos e encadeamento de instruções em cadeias de várias etapas, permitindo tarefas complexas que os LLMs não conseguem lidar em uma única etapa. Também fornecemos integrações de lojas de vetores, facilitando o seu modelo de memória de longo prazo e conhecimento do assunto. Isso o capacita a criar aplicativos sofisticados.
Para ajudá-lo a começar, aqui está um exemplo demonstrando como usar llm-chain
. Você pode encontrar mais exemplos na pasta Exemplos no repositório.
let exec = executor ! ( ) ? ;
let res = prompt ! (
"You are a robot assistant for making personalized greetings" ,
"Make a personalized greeting for Joe"
)
. run ( parameters ( ) ! , & exec )
. await ? ;
println ! ( "{}" , res ) ;
➡️ Tutorial: Comece com a cadeia LLM ➡️ Quick-Start : Criar projeto com base em nosso modelo
llm.rs
: Use LLMs em Rust sem dependências do código C ++ com nosso suporte para llm.rs
llm-chain
. Para começar a usar llm-chain
, adicione-a como uma dependência em sua Cargo.toml
(você precisa de ferrugem 1.65.0 ou mais recente):
[ dependencies ]
llm-chain = " 0.12.0 "
llm-chain-openai = " 0.12.0 "
Os exemplos para llm-chain-openai
exigem que você defina a variável de ambiente OPENAI_API_KEY
, que você pode fazer assim:
export OPENAI_API_KEY= " sk-YOUR_OPEN_AI_KEY_HERE "
Em seguida, consulte a documentação e os exemplos para aprender a criar modelos, correntes e muito mais.
Congratulamo -nos com contribuições calorosamente de todos! Se você estiver interessado em ajudar a melhorar llm-chain
, consulte nosso arquivo CONTRIBUTING.md
para obter diretrizes e práticas recomendadas.
llm-chain
é licenciada sob a licença do MIT.
Se você tiver alguma dúvida, sugestão ou feedback, sinta -se à vontade para abrir um problema ou se juntar à nossa discórdia da comunidade. Estamos sempre animados em ouvir nossos usuários e aprender sobre suas experiências com llm-chain
.
Esperamos que você goste de usar llm-chain
para desbloquear todo o potencial de grandes modelos de idiomas em seus projetos. Codificação feliz! ?