Como permitir que a inteligência artificial alcance a justiça cognitiva
Autor:Eve Cole
Data da Última Atualização:2024-11-22 17:54:01
Nos últimos anos, a inteligência artificial tem sido aplicada em muitas indústrias e tornou-se um “bom ajudante” para a humanidade. Mas neste processo também surgiram vários problemas. Entre eles, o sistema de inteligência artificial gera "conhecimento" errôneo com base em fontes de dados deficientes e design de algoritmo defeituoso, e não tem a capacidade de fazer julgamentos de valor sobre o conteúdo de saída e não pode assumir responsabilidades cognitivas correspondentes, levando a preconceitos cognitivos sistêmicos. é uma questão bastante proeminente. Do ponto de vista da ética científica e tecnológica, isto viola o princípio da justiça cognitiva. A chamada justiça cognitiva refere-se a garantir que as vozes de todos os indivíduos e grupos possam ser ouvidas e compreendidas de forma justa no processo de geração, disseminação e aquisição de conhecimento, e tenham oportunidades iguais de serem transformadas em conhecimento público da humanidade. No passado, a geração de conhecimento dependia principalmente da percepção, memória, raciocínio e testemunho de indivíduos humanos. No entanto, com a rápida iteração da inteligência artificial, especialmente a aplicação generalizada da inteligência artificial conversacional, os métodos tradicionais de geração e disseminação de conhecimento estão a sofrer grandes mudanças. A inteligência artificial de hoje não é apenas boa na coleta de informações e na execução de tarefas, mas também uma "tecnologia cognitiva" que pode gerar e disseminar conhecimento. É usada para processar conteúdo cognitivo (como proposições, modelos, dados) e realizar operações cognitivas (tais). como análise estatística, reconhecimento de padrões, previsão, inferência e simulação). O “conhecimento da máquina” baseado em dados e algoritmos desafia o conhecimento humano anterior baseado na experiência e no julgamento profissional, levando à “fragmentação” cognitiva e minando a justiça cognitiva dos sistemas tradicionais de conhecimento humano. Hoje, a inteligência artificial generativa começou a ser totalmente incorporada em todos os cenários e processos sociais que possam fornecer substitutos técnicos para a cognição e a tomada de decisões. Diante do desafio da justiça cognitiva causado pela inteligência artificial na geração de conhecimento, como tornar a inteligência artificial mais inteligente? Como torná-lo um auxiliar na melhoria da cognição e na garantia de que a ciência e a tecnologia sejam boas? O autor acredita que é necessário partir das dimensões de melhoria da qualidade dos dados, melhoria do design de algoritmos, otimização da colaboração homem-máquina e fortalecimento da governança ética. O design responsável de algoritmos é uma arquitetura central para alcançar a justiça epistêmica. Sendo uma poderosa tecnologia cognitiva, a inteligência artificial identifica padrões e tendências de informação através da mineração de dados e da análise estatística, e participa na geração de conhecimento público humano. Como o algoritmo se concentra em padrões de informação que aparecem frequentemente nos dados de treinamento, os dados que não são suficientemente comuns ou estatisticamente fortes são frequentemente ignorados e excluídos, impedindo que o algoritmo compreenda totalmente e responda adequadamente. O desenho de algoritmos que se baseia em frequências estatísticas constitui um tipo específico de “obediência cega cognitiva”, que por sua vez leva à marginalização sistemática das vozes de alguns grupos. Esta falha de concepção não só limita as capacidades cognitivas do algoritmo, mas também agrava a desigualdade e a opressão cognitiva na sociedade, minando a justiça cognitiva. A causa raiz do comportamento de “obediência cega” é a falta de compreensão das origens culturais de diferentes grupos no projeto do algoritmo e no processo de treinamento. Portanto, além da transparência e explicabilidade do algoritmo de que falamos frequentemente, o design de algoritmos que atenda aos requisitos da justiça cognitiva também deve levar em conta a diversidade cognitiva que envolve diferentes comunidades. O fornecimento de dados de qualidade é a infra-estrutura para concretizar a justiça epistémica. Outro factor importante que faz com que a IA prejudique a justiça epistémica é a qualidade dos dados. Os big data são a base cognitiva e a base para a tomada de decisões da tecnologia inteligente. Podem apresentar as características e tendências de todos os aspectos da vida social humana de forma mais clara e intuitiva. No entanto, ao contrário do conhecimento público humano tradicional, os dados não são universalmente partilhados pelas pessoas. Especificamente, os dados que podem ser recolhidos e utilizados para análise, a forma como estes dados serão classificados e extraídos e a quem servem, em última análise, são questões confusas, resultando numa qualidade desigual dos dados. Os dados de treinamento para algoritmos geralmente vêm de grandes bancos de dados e comunidades na Internet, e esses dados provavelmente contêm preconceitos e discriminação. A geração de conhecimento da inteligência artificial exige a garantia de que a fonte dos dados é fiável e o conteúdo é diversificado, os dados devem ser distorcidos e os dados devem ser continuamente monitorizados e actualizados para fazer face aos novos problemas trazidos pelas mudanças sociais e culturais. Somente com o fornecimento de dados de alta qualidade os sistemas de inteligência artificial podem fornecer conhecimento mais preciso e apoio à tomada de decisões em estruturas sociais multiculturais e complexas. A colaboração homem-máquina em larga escala é um meio eficaz de alcançar a justiça cognitiva. Desde a tradução de sinais em interfaces cérebro-computador até ações conjuntas homem-máquina, como a tomada de decisões médicas inteligentes e a IA para a Ciência, a colaboração homem-máquina em diferentes níveis envolve processos cognitivos, como a transmissão, interpretação e integração do conhecimento humano e da máquina. conhecimento. Tendo em conta as características cognitivas típicas dos humanos e das máquinas, uma "divisão cognitiva do trabalho homem-máquina" racional e em grande escala evitará efectivamente mais preconceitos cognitivos homem-máquina. Por exemplo, na investigação científica, pode haver uma tal divisão de trabalho: os seres humanos estabelecem metas, propõem hipóteses e interpretam resultados, e são responsáveis por fornecer pensamento criativo, tomada de decisão no local, julgamento ético e compreensão intuitiva. de problemas não estruturados; enquanto a inteligência artificial processa grandes quantidades de dados estruturados, realiza reconhecimento de padrões e análise preditiva para fornecer padrões e correlações despercebidos. Neste tipo de colaboração, a IA torna-se mais um “parceiro” que inspira novas ideias do que uma “máquina” que gera conhecimento erróneo. A governação ética de alto nível é o apoio institucional para a realização da justiça cognitiva. A justiça cognitiva exige a geração diversificada de conhecimentos, a aquisição igualitária de conhecimentos, a disseminação imparcial do conhecimento e a utilização responsável do conhecimento, o que exige um elevado nível de governação ética da inteligência artificial. Para as empresas, as necessidades e perspetivas dos diferentes grupos sociais devem ser consideradas na conceção dos algoritmos, e a monitorização contínua dos riscos e a avaliação do valor dos algoritmos devem também ser exploradas para incentivar investigadores e utilizadores de diferentes origens; participar da inteligência artificial Na pesquisa e julgamento de riscos éticos inteligentes, os riscos éticos podem ser resolvidos em tempo hábil. Para o governo, deve encorajar activamente a transformação de dados privados em dados públicos, acelerar a abertura e partilha de dados públicos para toda a sociedade, expandir a diversidade de dados e reforçar a fiabilidade dos dados; deve também procurar soluções sociais para lidar com o potencial; riscos éticos da inteligência artificial e estabelecer um sistema que cubra um mecanismo de governança ágil com previsão prospectiva, avaliação em tempo real e ajuste sistemático.