experiments genai
1.0.0
Gen AI 생태계 실험 목록
create -m venv .venv
source .venv/bin/activate
pip3 install -r requirements.txt
Ollama를 사용하여 로컬에 LLM 모델을 설치하고 실행합니다. 다운로드 페이지(https://ollama.com/)를 방문하세요.
2.1 Llama2 - 터미널에서 ollama run llama2
실행합니다. llama2에 대한 자세한 내용을 보려면 방문하세요.
2.2 Codellama - 터미널에서 ollama run codellama
실행합니다. codellama에 대한 자세한 내용을 보려면 방문하세요.
선택 사항, Milvus 예제를 실행할 때만 필요합니다.
Milvus 종속 예제를 실행하기 전에 Milvus 벡터 저장소가 실행되고 있는지 확인하십시오.
Milvus
Vector 스토어 설정을 위해 Docker Compose를 사용하세요. 프로젝트 루트에서 sudo docker compose -f docker-compose-milvus.yml up -d
를 실행합니다. 파일/폴더 이름 | 프레임워크 | 최적화/미세 조정 | 관로 |
---|---|---|---|
rag_pdf_1.py | LlamaIndex + Milvus | 조각 | PDF 디렉토리 로드, 순진한 방식으로 데이터 및 색인 추출, 벡터 저장소에 색인 포함, 사용자 쿼리 |
rag_pdf_2.py | 라마인덱스 | 조각 | PDF 디렉토리 로드, 문장 창으로 데이터 추출, 로컬 저장소에 색인 삽입, 사용자 쿼리 |
rag_pdf_3.py | LlamaIndex + Milvus | 조각 | PDF 디렉터리 로드, 문장 창을 사용하여 데이터 추출, 벡터 저장소에 인덱스 삽입, 사용자 쿼리 |
rag_pdf_4.py | LlamaIndex + 크로마 | 조각 | 출시 예정 |
rag_pdf_5.py | LlamaIndex + 솔방울 | 조각 | 출시 예정 |
rag_pdf_6.py | LlamaIndex + Qdrant | 조각 | 출시 예정 |
rag_pdf_7.py | LlamaIndex + 레이 + Milvus | 조각 | 출시 예정 |
rag_pdf_8.py | LlamaIndex + 레이 + Milvus | 조각 | 출시 예정 |
python3 rag_pdf_1.py