Tentang repositori ini
Ini adalah seri 3 bagian dengan topik 'berbicara dengan dek slide Anda' menggunakan model fondasi multimodal yang dihosting di Amazon Bedrock dan Amazon SageMaker.
- Bagian 1 dari seri ini mengimplementasikan desain solusi yang pertama-tama mengubah slide menjadi embeddings dan menyimpan embeddings ini di penyimpanan vektor (Amazon OpenSearch Serverless). Saat pengguna menanyakan data ini, LLaVA 1.5 dipanggil dan inferensi dikembalikan ke pengguna.
- Bagian 2 dari seri ini mengikuti desain solusi yang berbeda. Pendekatan ini akan menghasilkan dan menyimpan inferensi LLaVA 1.5 di penyimpanan vektor (Amazon OpenSearch Serverless) dan menggunakan inferensi yang disimpan tersebut untuk merespons pertanyaan pengguna.
- Bagian 3 dari seri ini akan membandingkan kedua pendekatan tersebut.