Sobre este repositório
Esta é uma série de três partes sobre o tópico 'fale com sua apresentação de slides' usando modelos básicos multimodais hospedados no Amazon Bedrock e no Amazon SageMaker.
- A parte 1 da série implementa um design de solução que primeiro converte slides em embeddings e armazena esses embeddings em um armazenamento de vetores (Amazon OpenSearch Serverless). Quando um usuário consulta esses dados, o LLaVA 1.5 é invocado e a inferência retornada ao usuário.
- A Parte 2 da série segue um design de solução diferente. Essa abordagem gerará e armazenará inferências do LLaVA 1.5 em um armazenamento de vetores (Amazon OpenSearch Serverless) e usará essas inferências armazenadas para responder às consultas do usuário.
- A Parte 3 da série comparará as duas abordagens.