Cómo permitir que la inteligencia artificial alcance la justicia cognitiva
Autor:Eve Cole
Fecha de actualización:2024-11-22 17:54:01
En los últimos años, la inteligencia artificial se ha aplicado en muchas industrias y se ha convertido en una "buena ayuda" para la humanidad. Pero en este proceso también surgieron varios problemas. Entre ellos, el sistema de inteligencia artificial genera "conocimiento" erróneo basado en fuentes de datos deficientes y un diseño de algoritmo defectuoso, y no tiene la capacidad de emitir juicios de valor sobre el contenido de salida y no puede asumir las responsabilidades cognitivas correspondientes, lo que genera sesgos cognitivos sistémicos. es una cuestión bastante importante. Desde la perspectiva de la ética científica y tecnológica, esto viola el principio de justicia cognitiva. La llamada justicia cognitiva se refiere a garantizar que las voces de todos los individuos y grupos puedan ser escuchadas y comprendidas de manera justa en el proceso de generación, difusión y adquisición de conocimiento, y tengan igualdad de oportunidades para transformarse en conocimiento público de la humanidad. En el pasado, la generación de conocimiento se basaba principalmente en la percepción, la memoria, el razonamiento y el testimonio de los individuos humanos. Sin embargo, con la rápida iteración de la inteligencia artificial, especialmente la aplicación generalizada de la inteligencia artificial conversacional, los métodos tradicionales de generación y difusión de conocimientos están experimentando cambios importantes. La inteligencia artificial actual no solo es buena para recopilar información y realizar tareas, sino también una "tecnología cognitiva" que puede generar y difundir conocimiento. Se utiliza para procesar contenido cognitivo (como proposiciones, modelos, datos) y realizar operaciones cognitivas (como. como análisis estadístico, reconocimiento de patrones, predicción, inferencia y simulación). El "conocimiento automático" basado en datos y algoritmos desafía el conocimiento humano pasado basado en la experiencia y el juicio profesional, lo que conduce a una "fragmentación" cognitiva y socava la justicia cognitiva de los sistemas de conocimiento humano tradicionales. Hoy en día, la inteligencia artificial generativa ha comenzado a estar plenamente integrada en todos los escenarios y procesos sociales que pueden proporcionar sustitutos técnicos para la cognición y la toma de decisiones. Ante el desafío de la justicia cognitiva que plantea la inteligencia artificial en la generación de conocimiento, ¿cómo hacer que la inteligencia artificial sea más inteligente? ¿Cómo convertirlo en una ayuda para mejorar la cognición y garantizar que la ciencia y la tecnología sean buenas? El autor cree que es necesario partir de las dimensiones de mejorar la calidad de los datos, mejorar el diseño de algoritmos, optimizar la colaboración hombre-máquina y fortalecer la gobernanza ética. El diseño de algoritmos responsable es una arquitectura central para lograr la justicia epistémica. Como poderosa tecnología cognitiva, la inteligencia artificial identifica patrones y tendencias de información a través de la extracción de datos y el análisis estadístico, y participa en la generación de conocimiento público humano. Debido a que el algoritmo se centra en patrones de información que aparecen con frecuencia en los datos de entrenamiento, los datos que no son lo suficientemente comunes o estadísticamente sólidos a menudo se pasan por alto y se excluyen, lo que impide que el algoritmo comprenda completamente y responda de manera adecuada. El diseño de algoritmos que se basa en frecuencias estadísticas constituye un tipo específico de "obediencia cognitiva ciega", que a su vez conduce a la marginación sistemática de las voces de algunos grupos. Este error de diseño no sólo limita las capacidades cognitivas del algoritmo, sino que también exacerba la desigualdad y la opresión cognitiva en la sociedad, socavando la justicia cognitiva. La causa fundamental detrás del comportamiento de "obediencia ciega" es la falta de comprensión de los antecedentes culturales de diferentes grupos en el proceso de diseño y entrenamiento del algoritmo. Por lo tanto, además de la transparencia y explicabilidad del algoritmo de la que hablamos a menudo, el diseño de algoritmos que cumpla con los requisitos de la justicia cognitiva también debe tener en cuenta la diversidad cognitiva que involucra a diferentes comunidades. El suministro de datos de calidad es la infraestructura para hacer realidad la justicia epistémica. Otro factor importante que hace que la IA socave la justicia epistémica es la calidad de los datos. Los macrodatos son la base cognitiva y la base para la toma de decisiones de la tecnología inteligente. Pueden presentar las características y tendencias de todos los aspectos de la vida social humana de manera más clara e intuitiva. Sin embargo, a diferencia del conocimiento público humano tradicional, las personas no comparten los datos. Específicamente, qué datos se pueden recopilar y utilizar para el análisis, cómo se clasificarán y extraerán estos datos y a quién sirven en última instancia son cosas confusas, lo que da como resultado una calidad desigual de los datos. Los datos de entrenamiento para algoritmos a menudo provienen de grandes bases de datos y comunidades en Internet, y es probable que estos datos contengan sesgos y discriminación. La generación de conocimiento de la inteligencia artificial requiere garantizar que la fuente de los datos sea confiable y el contenido sea diverso, los datos deben estar desprendidos y deben monitorearse y actualizarse continuamente para hacer frente a los nuevos problemas provocados por los cambios sociales y culturales. Sólo con un suministro de datos de alta calidad pueden los sistemas de inteligencia artificial proporcionar conocimientos más precisos y apoyo a la toma de decisiones en estructuras sociales multiculturales y complejas. La colaboración hombre-máquina a gran escala es un medio eficaz para lograr la justicia cognitiva. Desde la traducción de señales en interfaces cerebro-computadora hasta acciones conjuntas hombre-máquina, como la toma de decisiones médicas inteligentes y la IA para la ciencia, la colaboración hombre-máquina en diferentes niveles implica procesos cognitivos como la transmisión, interpretación e integración del conocimiento humano y la máquina. conocimiento. En vista de las características cognitivas típicas de los humanos y las máquinas, una "división cognitiva del trabajo entre humanos y máquinas" racional y a gran escala evitará efectivamente más sesgos cognitivos entre humanos y máquinas. Por ejemplo, en la investigación científica, puede existir tal división del trabajo: los humanos establecen objetivos, proponen hipótesis e interpretan resultados, y son responsables de proporcionar pensamiento creativo, toma de decisiones en el acto, juicio ético y comprensión intuitiva. de problemas no estructurados; mientras que la inteligencia artificial procesa grandes cantidades de datos estructurados, realiza reconocimiento de patrones y análisis predictivo para proporcionar patrones y correlaciones inadvertidos. En este tipo de colaboración, la IA se convierte más en un “socio” que inspira nuevas ideas que en una “máquina” que genera conocimiento erróneo. La gobernanza ética de alto nivel es el apoyo institucional para lograr la justicia cognitiva. La justicia cognitiva requiere una generación diversa de conocimientos, una adquisición equitativa de conocimientos, una difusión imparcial del conocimiento y un uso responsable del conocimiento, todo lo cual requiere un alto nivel de gobernanza ética de la inteligencia artificial. Para las empresas, se deben considerar las necesidades y perspectivas de los diferentes grupos sociales en el diseño de algoritmos, y también se debe explorar un modelo de crowdsourcing ético de inteligencia artificial para alentar a investigadores y usuarios de diferentes orígenes; participar en inteligencia artificial En la investigación y juicio de riesgos éticos inteligentes, los riesgos éticos se pueden resolver de manera oportuna. Para el gobierno, debería fomentar activamente la transformación de datos privados en datos públicos, acelerar la apertura y el intercambio de datos públicos a toda la sociedad, ampliar la diversidad de datos y fortalecer la confiabilidad de los datos; también debería buscar soluciones sociales para abordar el potencial; riesgos éticos de la inteligencia artificial y establecer un sistema que cubra un mecanismo de gobernanza ágil con previsión prospectiva, evaluación en tiempo real y ajuste sistemático.