Model Bahasa Besar (LLM) adalah teknologi mutakhir yang saya coba gunakan. Meskipun layanan terkelola seperti OpenAI menawarkan penggunaan LLM yang hemat biaya, ada beberapa skenario yang mengharuskan menjalankan LLM secara lokal. Hal ini mungkin terjadi karena penanganan data sensitif atau memerlukan keluaran berkualitas tinggi dalam bahasa selain bahasa Inggris. LLM sumber terbuka setara dengan kualitas pemain besar seperti OpenAI tetapi sering kali menuntut sumber daya komputasi yang besar. Menerapkan model yang lebih kecil pada platform seperti AWS Lambda dapat menawarkan alternatif yang hemat biaya.
Tujuan saya dalam proyek ini adalah menerapkan LLM sumber terbuka yang lebih kecil, khususnya Microsoft Phi-2, model parameter 2,7 miliar yang menyaingi keluaran dari model sumber terbuka yang lebih besar. Saya akan menjelajahi LLM, dan lambda berbasis buruh pelabuhan, mengevaluasi kinerja, dan menilai biaya untuk aplikasi dunia nyata.
Pastikan alat yang diperlukan telah diinstal, termasuk akun AWS, AWS CLI, Docker, dan Python.
lambda_function.py
.requirements.txt
, dimulai dengan perpustakaan AWS ( boto3
).Dockerfile
yang menentukan komposisi gambar Docker.docker-compose.yml
untuk menjalankan dan membuat container.docker-compose up
.llama-cpp-python
ke requirements.txt
. Bangun kembali wadah dan uji dengan perintah nyata menggunakan curl
.
Jalankan penerapan menggunakan skrip yang disediakan ( deploy.sh
). Hal ini melibatkan pembuatan atau pemeriksaan repositori ECR, IAM role, autentikasi Docker-ECR, konstruksi image Docker, upload image ECR, akuisisi ARN IAM role, verifikasi fungsi Lambda, konfigurasi, dan penerapan.
Gunakan URL fungsi Lambda yang diperoleh selama penerapan untuk menguji dengan perintah.
Pengetahuan tentang pemrograman, Docker, AWS, dan Python.
Jangan ragu untuk menjelajahi, memodifikasi, dan menjalankan skrip yang disediakan untuk menerapkan dan menguji LLM sumber terbuka di AWS Lambda.