Nos últimos anos, a tecnologia de reconhecimento de emoções tornou-se cada vez mais utilizada no campo comercial, mas as suas questões científicas e éticas são altamente controversas. Muitas empresas afirmam que o seu software de reconhecimento de emoções por IA pode julgar com precisão as emoções humanas, mas numerosos estudos apontaram que esta tecnologia tem falhas graves e a sua precisão é muito inferior à anunciada.
Nos últimos anos, a tecnologia de reconhecimento de emoções surgiu gradualmente na indústria de tecnologia. Muitas empresas de tecnologia lançaram software de reconhecimento de emoções alimentado por IA, alegando ser capaz de determinar o estado emocional de uma pessoa, incluindo felicidade, tristeza, raiva e frustração, a partir de dados biométricos. No entanto, um conjunto crescente de investigação científica mostra que estas tecnologias não são tão fiáveis como anunciado.
Nota sobre a fonte da imagem: A imagem é gerada por IA e é autorizada pelo provedor de serviços Midjourney
De acordo com as pesquisas mais recentes, a tecnologia de reconhecimento de emoções enfrenta sérios problemas de validade científica. Muitas empresas afirmam que estes sistemas são objetivos e enraizados em métodos científicos, mas, na realidade, baseiam-se frequentemente em teorias ultrapassadas. Estas teorias assumem que as emoções podem ser quantificadas e ter as mesmas manifestações em todo o mundo, mas, na verdade, a expressão das emoções é profundamente afetada pela cultura, pelo ambiente e pelas diferenças individuais. Por exemplo, a umidade da pele de uma pessoa pode aumentar, diminuir ou permanecer a mesma quando ela está com raiva, tornando impossível que um único indicador biológico avalie com precisão a emoção.
Ao mesmo tempo, estas tecnologias de reconhecimento de emoções também apresentam riscos jurídicos e sociais, especialmente no local de trabalho. Ao abrigo dos novos regulamentos da UE, a utilização de sistemas de IA que inferem emoções é proibida no local de trabalho, a menos que por razões médicas ou de segurança. Na Austrália, a regulamentação nesta área ainda não foi alcançada. Embora algumas empresas tenham tentado utilizar a análise de emoções faciais no recrutamento, a eficácia e a ética destas tecnologias levantaram questões generalizadas.
Além disso, a tecnologia de reconhecimento de emoções também apresenta possíveis problemas de preconceito. Esses sistemas podem apresentar discriminação contra pessoas de diferentes raças, gêneros e deficiências no reconhecimento de emoções. Por exemplo, algumas pesquisas mostram que os sistemas de reconhecimento de emoções são mais propensos a identificar rostos negros como zangados, mesmo que ambas as pessoas sorriam ao mesmo nível.
Embora as empresas tecnológicas reconheçam a questão do preconceito no reconhecimento de emoções, sublinham que o preconceito decorre principalmente dos conjuntos de dados utilizados para treinar estes sistemas. Em resposta a esta questão, a inTruth Technologies disse que está comprometida em usar conjuntos de dados diversos e inclusivos para reduzir preconceitos.
A opinião pública sobre a tecnologia de reconhecimento de emoções não é otimista. Uma pesquisa recente mostrou que apenas 12,9% dos adultos australianos apoiam o uso de tecnologia de reconhecimento facial de emoções no local de trabalho, com muitos vendo isso como uma invasão de privacidade.
Resumindo, o desenvolvimento da tecnologia de reconhecimento de emoções enfrenta enormes desafios. A sua validade científica, os riscos éticos e as questões de preconceito social requerem atenção generalizada e discussão aprofundada. Antes de uma tecnologia ser aplicada, os seus potenciais impactos negativos devem ser priorizados e as medidas regulamentares correspondentes desenvolvidas.