En los últimos años, la tecnología de reconocimiento de emociones se ha utilizado cada vez más en el campo comercial, pero sus cuestiones científicas y éticas son muy controvertidas. Muchas empresas afirman que su software de reconocimiento de emociones mediante IA puede juzgar con precisión las emociones humanas, pero numerosos estudios han señalado que esta tecnología tiene graves defectos y su precisión es mucho menor de lo que se anuncia.
En los últimos años, la tecnología de reconocimiento de emociones ha ido surgiendo gradualmente en la industria tecnológica. Muchas empresas de tecnología han lanzado software de reconocimiento de emociones impulsado por inteligencia artificial, afirmando que pueden determinar el estado emocional de una persona, incluida la felicidad, la tristeza, la ira y la frustración, a partir de datos biométricos. Sin embargo, un creciente conjunto de investigaciones científicas muestra que estas tecnologías no son tan confiables como se anuncia.
Nota sobre la fuente de la imagen: la imagen es generada por IA y el proveedor de servicios de autorización de imágenes Midjourney
Según las últimas investigaciones, la tecnología de reconocimiento de emociones enfrenta serios problemas de validez científica. Muchas empresas afirman que estos sistemas son objetivos y están basados en métodos científicos, pero en realidad, a menudo se basan en teorías obsoletas. Estas teorías suponen que las emociones pueden cuantificarse y tener las mismas manifestaciones en todo el mundo, pero, de hecho, la expresión de las emociones se ve profundamente afectada por la cultura, el entorno y las diferencias individuales. Por ejemplo, la humedad de la piel de una persona puede aumentar, disminuir o permanecer igual cuando está enojada, lo que hace imposible que un solo indicador biológico juzgue con precisión las emociones.
Al mismo tiempo, estas tecnologías de reconocimiento de emociones también plantean riesgos legales y sociales, especialmente en el lugar de trabajo. Según las nuevas regulaciones de la UE, el uso de sistemas de inteligencia artificial que infieren emociones está prohibido en el lugar de trabajo a menos que sea por razones médicas o de seguridad. En Australia, la regulación en esta área aún no se ha puesto al día. Si bien algunas empresas han intentado utilizar el análisis de las emociones faciales en la contratación, la eficacia y la ética de estas tecnologías han planteado dudas generalizadas.
Además, la tecnología de reconocimiento de emociones también tiene posibles problemas de sesgo. Estos sistemas pueden exhibir discriminación contra personas de diferentes razas, géneros y discapacidades al reconocer emociones. Por ejemplo, algunas investigaciones muestran que los sistemas de reconocimiento de emociones tienen más probabilidades de identificar caras negras como enojadas, aunque ambas personas sonrían al mismo nivel.
Si bien las empresas de tecnología reconocen el problema del sesgo en el reconocimiento de emociones, enfatizan que el sesgo surge principalmente de los conjuntos de datos utilizados para entrenar estos sistemas. En respuesta a este problema, inTruth Technologies dijo que está comprometida a utilizar conjuntos de datos diversos e inclusivos para reducir el sesgo.
La opinión pública sobre la tecnología de reconocimiento de emociones no es optimista. Una encuesta reciente mostró que solo el 12,9% de los adultos australianos apoyan el uso de tecnología de reconocimiento facial de emociones en el lugar de trabajo, y muchos lo ven como una invasión de la privacidad.
En resumen, el desarrollo de la tecnología de reconocimiento de emociones enfrenta enormes desafíos. Su validez científica, sus riesgos éticos y sus prejuicios sociales requieren una atención generalizada y un debate en profundidad. Antes de aplicar una tecnología, se deben priorizar sus posibles impactos negativos y desarrollar las medidas regulatorias correspondientes.