El último modelo de inteligencia artificial de Google, PaliGemma2, tiene la capacidad de analizar imágenes y generar leyendas, y puede responder preguntas sobre las emociones y comportamientos de las personas en las fotos. El modelo se basa en la familia de modelos abiertos de Gemma y proporciona una descripción de imágenes más profunda que el reconocimiento de objetos tradicional, capaz de identificar emociones y generar descripciones detalladas que se ajustan al contexto. Sin embargo, las implicaciones éticas y sociales de esta tecnología han generado preocupación entre los expertos, centrándose en la confiabilidad de sus capacidades de reconocimiento de emociones y su posible uso indebido. Este artículo profundizará en las características técnicas, las controversias éticas y el desarrollo futuro de PaliGemma2.
Google lanzó recientemente su modelo de inteligencia artificial de nueva generación, PaliGemma2, que puede analizar imágenes y generar leyendas, mientras responde preguntas sobre las emociones y acciones de las personas en las fotos. PaliGemma2 se basa en la serie de modelos abiertos Gemma de Google y proporciona una descripción de imágenes más profunda que el reconocimiento de objetos tradicional, capaz de identificar emociones y generar descripciones detalladas que se ajustan al contexto. Sin embargo, si bien esta tecnología parece ser una innovación revolucionaria, los expertos han emitido serias advertencias sobre sus posibles implicaciones éticas y sociales.
El reconocimiento de emociones no es una característica estándar de PaliGemma2, pero se logra mediante ajustes. Aunque Google dice que ha realizado "pruebas exhaustivas" y superó los puntos de referencia de la industria en cuanto a sesgo demográfico, los expertos han expresado preocupaciones sobre la confiabilidad de la tecnología. La profesora Sandra Wachter, de la Universidad de Oxford, cree que "hay grandes problemas con la 'lectura' de las emociones humanas a través de la inteligencia artificial" y que el proceso se basa demasiado en suposiciones, lo que puede conducir a errores de juicio y sesgos.
La tecnología de reconocimiento de emociones ha sido durante mucho tiempo foco de controversia en la comunidad tecnológica. Si bien los primeros estudios, como la teoría de las emociones de Paul Ekman, propusieron seis emociones básicas, investigaciones posteriores han demostrado que la expresión emocional varía mucho entre culturas y contextos. El investigador Mike Cook de la Universidad Queen Mary en el Reino Unido señaló que "la complejidad de la experiencia emocional hace que la detección precisa de las emociones sea casi imposible". Además, las investigaciones muestran que los sistemas de análisis de expresiones faciales existentes a menudo tienen sesgos contra ciertas emociones, como la sonrisa o las diferencias en las expresiones faciales entre grupos raciales.
A medida que la tecnología de reconocimiento de emociones se comercializa gradualmente, el riesgo de abuso que puede conllevar ha atraído la atención de todas las partes. A algunos expertos les preocupa que este tipo de tecnología pueda usarse en la aplicación de la ley, el reclutamiento y otros campos, exacerbando aún más la desigualdad social. El proyecto de ley de inteligencia artificial de la UE ya impone restricciones estrictas a la tecnología de reconocimiento de emociones, especialmente cuando se utiliza en entornos de alto riesgo.
Google insiste en que PaliGemma2 ha considerado plenamente las cuestiones éticas y de seguridad durante la fase de prueba, especialmente los niños y la seguridad del contenido. Sin embargo, aún queda por examinar la idoneidad de estas garantías. La Dra. Heidy Khlaaf del AI Now Institute dijo que el reconocimiento de emociones no es solo un problema visual, sino que también involucra un profundo trasfondo social y cultural. "Las emociones no se pueden inferir con precisión únicamente a partir de los rasgos faciales".
Con el lanzamiento público de esta tecnología, PaliGemma2 no solo promoverá la aplicación de la inteligencia artificial en el campo de la comprensión de imágenes, sino que también planteará nuevos desafíos a la ética social y la privacidad de los datos, que requerirán urgentemente la atención y la intervención de las agencias reguladoras pertinentes.
Sin duda, la aparición de PaliGemma2 ha promovido el desarrollo de la tecnología de comprensión de imágenes de inteligencia artificial, pero también ha expuesto las limitaciones y los riesgos potenciales de la tecnología de reconocimiento de emociones. En el futuro, la aplicación de la tecnología debe encontrar un equilibrio entre innovación y ética, y fortalecer la supervisión para garantizar que no se abuse de ella para servir mejor a la sociedad.