Este proyecto demuestra cómo integrar un bot de Slack con un chatbot basado en Large Language Model (LLM) utilizando el modelo Gemini de Google. La integración permite una comunicación inteligente y contextual directamente dentro de Slack.
El bot de Slack está construido con Python y Flask y está integrado con un chatbot con tecnología LLM que utiliza el modelo Gemini. Esta configuración permite que el bot procese las entradas del usuario en los canales de Slack y responda de manera inteligente en función de la información más reciente de ingeniería de datos.
Bibliotecas utilizadas: slack_sdk, slack_bolt Funcionalidad: el bot escucha los eventos app_mention que se activan cuando alguien menciona el bot en un canal de Slack. Configuración: los tokens y secretos se cargan de forma segura desde un archivo .env mediante variables de entorno
Flask App: The Flask app handles incoming HTTP requests from Slack.
Event Processing: Slack events are processed through Flask using SlackRequestHandler from the slack_bolt.adapter.flask module.
Gemini Model: The Gemini model, provided by Google's Generative AI platform, processes and responds to queries.
Python Package: The google.generativeai package is used to interact with the Gemini model, allowing for prompt-based queries.
Configuration: Tokens are securely loaded from a .env file using environment variables for geminiai api.
Uso de ngrok: ngrok proporciona una URL pública que reenvía solicitudes a la aplicación Flask local, lo que permite que Slack se comunique con el bot. Comando de configuración: ngrok http 6060 se utiliza para exponer la aplicación Flask a Internet.
La integración da como resultado un bot de Slack capaz de realizar análisis de datos avanzados y responder de manera inteligente a las consultas de los usuarios dentro de Slack.