llm-chain
챗봇, 에이전트 등과 같은 고급 LLM 애플리케이션을 만들 수 있도록 설계된 Rust Crates 모음입니다. 포괄적 인 LLM-OPS 플랫폼으로서 우리는 클라우드 및 로컬 호스트 LLM을 모두 지원합니다. 또한 멀티 스텝 체인으로 프롬프트 템플릿과 연쇄 프롬프트에 대한 강력한 지원을 제공하여 LLM이 한 단계에서 처리 할 수없는 복잡한 작업을 가능하게합니다. 또한 벡터 매장 통합을 제공하여 모델 장기 메모리 및 주제 지식을 쉽게 제공 할 수 있습니다. 이를 통해 정교한 응용 프로그램을 구축 할 수 있습니다.
시작하는 데 도움을주기 위해 llm-chain
사용 방법을 보여주는 예가 있습니다. 저장소의 예제 폴더에서 더 많은 예제를 찾을 수 있습니다.
let exec = executor ! ( ) ? ;
let res = prompt ! (
"You are a robot assistant for making personalized greetings" ,
"Make a personalized greeting for Joe"
)
. run ( parameters ( ) ! , & exec )
. await ? ;
println ! ( "{}" , res ) ;
➡️ 튜토리얼 : LLM 체인을 시작하십시오 ➡️ Quick-Start : 템플릿을 기반으로 프로젝트를 만듭니다.
llm.rs
지원 : llm.rs
에 대한 지원을 통해 C ++ 코드에 의존하지 않고 녹에서 LLMS를 사용하십시오.llm-chain
의 능력을 개선하고 확장하는 데 도움이되는 커뮤니티의 기여를 환영하고 격려합니다. llm-chain
사용을 시작하려면 Cargo.toml
의 종속성으로 추가하십시오 (Rust 1.65.0 이상이 필요) :
[ dependencies ]
llm-chain = " 0.12.0 "
llm-chain-openai = " 0.12.0 "
llm-chain-openai
의 예는 다음과 같이 할 수있는 OPENAI_API_KEY
환경 변수를 설정해야합니다.
export OPENAI_API_KEY= " sk-YOUR_OPEN_AI_KEY_HERE "
그런 다음 문서 및 예제를 참조하여 프롬프트 템플릿, 체인 등을 만드는 방법을 배우십시오.
우리는 모든 사람의 기여를 따뜻하게 환영합니다! llm-chain
개선에 관심이 있으시면 기여장 및 모범 사례는 CONTRIBUTING.md
파일을 확인하십시오.
llm-chain
MIT 라이센스에 따라 라이센스가 부여됩니다.
궁금한 점, 제안 또는 피드백이 있으면 문제를 열거나 커뮤니티 불화에 가입하십시오. 우리는 항상 사용자의 의견을 듣고 llm-chain
에 대한 귀하의 경험에 대해 배우게되어 기쁩니다.
llm-chain
사용하여 프로젝트에서 큰 언어 모델의 잠재력을 최대한 활용할 수 있기를 바랍니다. 행복한 코딩! ?