Модели больших языков (LLM) — это передовая технология, с которой я экспериментирую. Хотя управляемые сервисы, такие как OpenAI, предлагают экономичное использование LLM, существуют сценарии, когда становится необходимым локальное использование LLM. Это может быть связано с обработкой конфиденциальных данных или необходимостью получения высококачественных результатов на других языках, кроме английского. LLM с открытым исходным кодом соответствуют качеству таких крупных игроков, как OpenAI, но часто требуют значительных вычислительных ресурсов. Развертывание небольших моделей на таких платформах, как AWS Lambda, может стать экономически эффективной альтернативой.
Моя цель в этом проекте — развернуть меньшую LLM с открытым исходным кодом, в частности Microsoft Phi-2, модель с 2,7 миллиардами параметров, которая конкурирует с результатами более крупных моделей с открытым исходным кодом. Я изучу LLM и лямбды на основе докеров, оценю производительность и оценю затраты на реальные приложения.
Убедитесь, что установлены необходимые инструменты, включая учетную запись AWS, интерфейс командной строки AWS, Docker и Python.
lambda_function.py
.requirements.txt
, начиная с библиотеки AWS ( boto3
).Dockerfile
указав состав образа Docker.docker-compose.yml
для запуска и сборки контейнера.docker-compose up
.llama-cpp-python
в requirements.txt
. Пересоберите контейнер и протестируйте его с помощью реального приглашения с помощью curl
.
Выполните развертывание, используя предоставленный сценарий ( deploy.sh
). Это включает в себя создание или проверку репозитория ECR, роль IAM, аутентификацию Docker-ECR, создание образа Docker, загрузку образа ECR, получение роли IAM ARN, проверку функции Lambda, настройку и развертывание.
Используйте URL-адрес функции Lambda, полученный во время развертывания, для тестирования с помощью приглашения.
Практические знания программирования, Docker, AWS и Python.
Не стесняйтесь изучать, изменять и запускать предоставленные сценарии для развертывания и тестирования LLM с открытым исходным кодом на AWS Lambda.