Large Language Model (LLM) は、私が実験している最先端のテクノロジーです。 OpenAI のようなマネージド サービスは、費用対効果の高い LLM の使用を提供しますが、LLM をローカルで実行することが必要になるシナリオもあります。これは、機密データを扱っているか、英語以外の言語で高品質の出力が必要であることが原因である可能性があります。オープンソース LLM は、OpenAI などの大手プレーヤーの品質に匹敵しますが、多くの場合、大量のコンピューティング リソースを必要とします。 AWS Lambda などのプラットフォームに小規模なモデルをデプロイすると、コスト効率の高い代替手段を提供できます。
このプロジェクトの私の目標は、より小規模なオープンソース LLM、具体的には、大規模なオープンソース モデルの出力に匹敵する 27 億のパラメーター モデルである Microsoft Phi-2 をデプロイすることです。 LLM と Docker ベースのラムダを調査し、パフォーマンスを評価し、実際のアプリケーションのコストを評価します。
AWS アカウント、AWS CLI、Docker、Python などの必要なツールがインストールされていることを確認します。
lambda_function.py
ファイルに作成します。boto3
) から始めて、 requirements.txt
で依存関係を定義します。Dockerfile
作成します。docker-compose.yml
セットアップします。docker-compose up
使用してローカルでコンテナーを構築し、起動します。llama-cpp-python
をrequirements.txt
に追加します。コンテナを再構築し、 curl
使用して実際のプロンプトでテストします。
提供されたスクリプト ( deploy.sh
) を使用してデプロイメントを実行します。これには、ECR リポジトリ、IAM ロール、Docker-ECR 認証、Docker イメージの構築、ECR イメージのアップロード、IAM ロールの ARN 取得、Lambda 関数の検証、構成、デプロイの作成または確認が含まれます。
デプロイ中に取得した Lambda 関数 URL を使用して、プロンプトでテストします。
プログラミング、Docker、AWS、Python に関する実践的な知識。
提供されたスクリプトを自由に探索、変更、実行して、オープンソース LLM を AWS Lambda にデプロイおよびテストしてください。