El último modelo de inteligencia artificial de Google, PaliGemma2, afirma ser capaz de identificar emociones humanas mediante el análisis de imágenes, lo que genera una controversia generalizada. El modelo se basa en el modelo abierto de Gemma y es capaz de generar descripciones detalladas de imágenes, incluido el comportamiento y las emociones de los personajes. Sin embargo, los expertos han cuestionado fuertemente la naturaleza científica y la seguridad de esta tecnología, creyendo que su teoría básica es débil y puede tener serios sesgos y riesgos éticos.
Google lanzó recientemente una nueva familia de modelos de inteligencia artificial, PaliGemma2. Su característica más llamativa es que afirma poder "reconocer" las emociones humanas a través del análisis de imágenes. Esta afirmación rápidamente desencadenó un debate generalizado y serias dudas entre académicos y expertos en ética tecnológica.
Este sistema de inteligencia artificial basado en el modelo abierto de Gemma puede generar descripciones detalladas de imágenes, no solo el simple reconocimiento de objetos, sino también tratando de describir los comportamientos y emociones de los personajes en las imágenes. Sin embargo, muchos expertos autorizados han emitido serias advertencias sobre la ciencia y los riesgos potenciales de esta tecnología.
Sandra Wachter, profesora de ética de datos del Oxford Internet Institute, dice sin rodeos que tratar de "leer" las emociones humanas a través de la IA es como "pedir consejo a una bola ocho mágica". Esta metáfora revela vívidamente lo absurdo de la tecnología de reconocimiento de emociones.
De hecho, la base científica para el reconocimiento de emociones es en sí misma extremadamente frágil. La teoría inicial de las seis emociones básicas propuesta por el psicólogo Paul Ekman ha sido ampliamente cuestionada por investigaciones posteriores. Existen diferencias significativas en la forma en que las personas de diferentes culturas expresan sus emociones, lo que hace que el reconocimiento universal de las emociones sea una tarea casi imposible.
Mike Cook, investigador de inteligencia artificial de la Universidad Queen Mary, lo expresa de manera más directa: la detección de emociones es imposible en un sentido general. Aunque los humanos a menudo creen que pueden juzgar las emociones de los demás mediante la observación, esta capacidad es mucho más compleja y poco confiable de lo que imaginamos.
Lo que es aún más preocupante es que estos sistemas de IA suelen tener graves sesgos. Múltiples estudios han demostrado que los modelos de análisis facial pueden producir juicios emocionales diferentes para personas de diferentes colores de piel, lo que sin duda exacerbará la discriminación social existente.
Aunque Google afirma haber probado PaliGemma2 exhaustivamente y haber obtenido buenos resultados en algunos puntos de referencia, los expertos siguen siendo muy escépticos. Creen que las pruebas limitadas por sí solas no pueden evaluar plenamente los riesgos éticos que puede plantear esta tecnología.
Lo más peligroso es que se puede abusar de este modelo abierto en áreas clave como el empleo, la educación, la aplicación de la ley, etc., causando daños reales a los grupos vulnerables. Como advierte el profesor Wachter, esto podría conducir a un aterrador futuro "fuera de control": las oportunidades de empleo, préstamos y educación de las personas estarán determinadas por el "juicio emocional" de un sistema de inteligencia artificial poco confiable.
Hoy en día, con el rápido desarrollo de la inteligencia artificial, la innovación tecnológica es importante, pero no se pueden ignorar la ética y la seguridad. La aparición de PaliGemma2 destaca una vez más la necesidad de que mantengamos una mirada clara y crítica a la tecnología de IA.
La controversia de PaliGemma2 nos recuerda que debemos tratar la tecnología de IA con cautela, especialmente en áreas que involucran emociones humanas y justicia social. En el futuro desarrollo de la IA, se debe dar prioridad a las consideraciones éticas para evitar el mal uso de la tecnología y consecuencias sociales irreparables.