Recentemente, dois artigos sobre inteligência artificial generativa (IA) geraram discussões acaloradas, apontando que os textos gerados pela IA são muitas vezes “absurdos”. Estes dois documentos fornecem uma análise aprofundada dos potenciais danos à sociedade causados pela desinformação gerada pela IA, do ponto de vista das características essenciais da IA e das deficiências das leis e regulamentos atuais, e apelam a medidas mais eficazes para evitar riscos. Os autores do artigo acreditam que é enganoso atribuir simplesmente erros de IA a “ilusões” e que termos mais precisos deveriam ser usados para descrever este fenômeno, melhorando assim a conscientização e compreensão do público sobre a tecnologia de IA e promovendo a implementação de leis e regulamentos relevantes. regulamentos completos.
Recentemente, duas equipes de pesquisa publicaram artigos que atraíram a atenção generalizada, afirmando sem rodeios que o conteúdo dos produtos generativos de inteligência artificial (IA) pode basicamente ser considerado "absurdo". O artigo, intitulado “ChatGPT is Bullshit”, aponta que o desrespeito da IA generativa pela precisão na produção de informações cria muitos desafios para os funcionários públicos, especialmente os funcionários que têm o dever legal de dizer a verdade.
Os autores Michael Townsen Hicks, James Humphries e Joe Slater enfatizam que a desinformação gerada pela IA generativa não pode ser simplesmente descrita como “mentiras” ou “ilusões”. Ao contrário das mentiras que são intencionalmente enganosas, besteira refere-se a uma forma de expressão que não se preocupa com a verdade na tentativa de dar uma impressão específica. Eles argumentam que chamar os erros de IA de “alucinações” apenas induz o público a pensar que essas máquinas ainda estão de alguma forma tentando comunicar aquilo em que “acreditam”.
“Chamar estes erros de ‘besteira’ em vez de ‘ilusões’ não só seria mais preciso, mas também ajudaria a melhorar a compreensão pública da tecnologia”, afirmaram. especialmente no contexto atual em que a comunicação científica e tecnológica necessita urgentemente de melhorias.
Entretanto, outro artigo de investigação sobre Grandes Modelos Linguísticos (LLMs) centra-se no ambiente jurídico e ético da UE nesta questão. A conclusão do artigo é que as leis e regulamentações atuais sobre IA ainda não são perfeitas o suficiente para prevenir eficazmente os danos causados pelos “absurdos” gerados por essas IAs. Os autores Sandra Wachter, Brent Mittelstadt e Chris Russell sugerem a introdução de regulamentações semelhantes às da publicação, com ênfase em evitar o "discurso casual" que pode causar danos sociais.
Observam que esta obrigação enfatiza que nenhuma entidade, pública ou privada, deve ser o único árbitro da verdade. Eles também dizem que o “discurso aleatório” da IA generativa poderia transformar a verdade em uma questão de frequência e opinião majoritária, em vez de fatos reais.
Em suma, estes dois documentos revelam conjuntamente os riscos potenciais da IA generativa e apelam a todos os sectores da sociedade para que prestem atenção e tomem medidas para melhorar as leis e regulamentos relevantes, normalizar o desenvolvimento da tecnologia de IA e garantir que a tecnologia de IA possa servir melhor. sociedade humana.