LLMOnAWS
1.0.0
大型語言模型 (LLM) 是我正在試驗的尖端技術。雖然 OpenAI 等託管服務提供了經濟高效的 LLM 使用,但在某些情況下,需要在本地運行 LLM。這可能是由於處理敏感資料或需要以英語以外的語言提供高品質的輸出。開源法學碩士可與 OpenAI 等主要參與者的品質相媲美,但通常需要大量計算資源。在 AWS Lambda 等平台上部署較小的模型可以提供經濟高效的替代方案。
我這個專案的目標是部署一個較小的開源 LLM,特別是 Microsoft Phi-2,這是一個 27 億參數模型,可與大型開源模型的輸出相媲美。我將探索 LLM 和基於 docker 的 lambda,評估效能並評估實際應用程式的成本。
確保安裝了必要的工具,包括 AWS 帳戶、AWS CLI、Docker 和 Python。
lambda_function.py
檔案中建立基本的 Python Lambda 函數處理程序。requirements.txt
中定義依賴項,從AWS 函式庫( boto3
) 開始。Dockerfile
。docker-compose.yml
以運行和建置容器。docker-compose up
在本機建置並啟動容器。llama-cpp-python
加入到requirements.txt
。重建容器並使用curl
在真實提示下進行測試。
使用提供的腳本 ( deploy.sh
) 執行部署。包括建立或檢查ECR儲存庫、IAM角色、Docker-ECR身份驗證、Docker映像建置、ECR映像上傳、IAM角色ARN取得、Lambda函數驗證、配置和部署。
使用部署期間取得的 Lambda 函數 URL 透過提示進行測試。
具備程式設計、Docker、AWS 和 Python 的工作知識。
您可以隨意探索、修改和執行提供的腳本,以在 AWS Lambda 上部署和測試開源 LLM。