microllama
1.0.0
盡可能最小的 LLM API。在幾分鐘內為您自己的內容建立一個問答介面。透過 Langchain 使用 OpenAI 嵌入、gpt-3.5 和 Faiss。
source.json
的 JSON 檔案中。它應該看起來像這樣: [
{
"source" : " Reference to the source of your content. Typically a title. " ,
"url" : " URL for your source. This key is optional. " ,
"content" : " Your content as a single string. If there's a title or summary, put these first, separated by new lines. "
},
...
]
有關範例,請參閱example.source.json
。
pip install microllama
取得 OpenAI API 金鑰並將其新增至環境中,例如export OPENAI_API_KEY=sk-etc
。請注意,索引和查詢需要 OpenAI 積分,但該積分不是免費的。
使用microllama
運行您的伺服器。如果向量搜尋索引不存在,它將從您的source.json
建立並儲存。
在 /api/ask?your question 查詢您的文件。
Microllama 包括一個可選的 Web 前端,它是使用microllama make-front-end
產生的。此命令建立一個可以編輯的index.html
檔案。供應地點為/。
Microllama 透過環境變數進行配置,預設值如下:
OPENAI_API_KEY
:必需FAISS_INDEX_PATH
:“faiss_index”SOURCE_JSON
:“源.json”MAX_RELATED_DOCUMENTS
:“5”EXTRA_CONTEXT
:“回答不超過三句話。如果答案未包含在上下文中,請說‘抱歉,我的資料來源中沒有對此的答案。’”UVICORN_HOST
:“0.0.0.0”UVICORN_PORT
:“8080” 使用microllama make-dockerfile
建立 Dockerfile 。然後:
註冊 Fly.io 帳號並安裝 Flyctl。然後:
fly launch # answer no to Postgres, Redis and deploying now
fly secrets set OPENAI_API_KEY=sk-etc
fly deploy
gcloud run deploy --source . --set-env-vars= " OPENAI_API_KEY=sk-etc "
對於 Cloud Run 和其他無伺服器平台,您應該在容器建置時產生 FAISS 索引,以減少啟動時間。請參閱Dockerfile
中的兩行註解。
您也可以使用microllama deploy
產生這些命令。
SpacyTextSplitter(chunk_size=700, chunk_overlap=200, separator=" ")