Recientemente, ocurrió un incidente controvertido en la Conferencia de Inteligencia Artificial NeurIPS debido a que un orador hizo comentarios con prejuicios raciales. Rosalind Pickard, profesora del MIT Media Lab, mencionó a un "estudiante chino que fue expulsado de una importante universidad" y citó al estudiante en su discurso, aunque luego brindó explicaciones adicionales, los comentarios persistieron. Los círculos provocaron discusiones generalizadas sobre los prejuicios raciales y la sensibilidad cultural en la inteligencia artificial. El incidente se difundió rápidamente en las redes sociales y muchos expertos en el campo de la inteligencia artificial expresaron su gran descontento.
En la destacada conferencia sobre inteligencia artificial NeurIPS, un discurso de Rosalind Pickard, profesora del MIT Media Lab, rápidamente despertó fuertes reacciones en la industria debido a comentarios que involucraban prejuicios raciales.
En un discurso de apertura titulado "Cómo optimizar lo que más importa", Picard mencionó a un "estudiante chino que había sido expulsado de una importante universidad", citando la afirmación del estudiante de que "nadie en la escuela enseñaba moral o valores". Aunque más tarde añadió que "la mayoría de los chinos que conozco son honestos y morales", los comentarios provocaron una controversia generalizada en la industria.
Sun Jiao, un científico de Google DeepMind, tomó la iniciativa al compartir las diapositivas de la conferencia en la plataforma de redes sociales Far East reenvió los comentarios de Sun y dijo sin rodeos: "Esto es un prejuicio racial obvio. ¿Cómo pudo pasarle esto a NeurIPS?".
Durante la sesión de preguntas y respuestas posterior a la reunión, un asistente señaló que ésta era la única vez en el discurso de Picard que se mencionaba la nacionalidad de alguien y lo encontró "un poco ofensivo". Sugirió que Picard eliminara la referencia de futuros discursos, con lo que Picard pareció estar de acuerdo.
Los organizadores de la conferencia NeurIPS rápidamente emitieron una declaración, diciendo seriamente: "Nos gustaría señalar específicamente los comentarios hechos en el discurso invitado de esta tarde. Esto nunca será tolerado por NeurIPS y no está en línea con nuestro código de conducta. Nos comunicaremos directamente con el orador Comuníquese para resolver este problema. NeurIPS se compromete a crear un entorno diverso e inclusivo donde todos sean tratados por igual".
Más tarde, Pickard se disculpó y expresó "arrepentimiento" por mencionar la nacionalidad del estudiante. Ella confesó: "Me doy cuenta de que esto fue innecesario, irrelevante desde mi punto de vista y creó una asociación negativa inesperada. Pido disculpas por esto y estoy muy triste por la angustia que ha causado el incidente. Aprenderé de esta experiencia". Agradecemos sugerencias sobre cómo enmendar la situación ante la comunidad".
El incidente pone de relieve una vez más los desafíos que aún enfrentan la tecnología y el mundo académico para erradicar los prejuicios raciales. Hoy en día, con el rápido desarrollo de la inteligencia artificial, cómo evitar la discriminación y promover la tolerancia mientras la innovación tecnológica se ha convertido en una cuestión clave que la industria necesita resolver con urgencia.
Vale la pena señalar que esta controversia no está dirigida a la tecnología de IA en sí, sino que refleja los problemas profundamente arraigados que todavía existen en el círculo académico al abordar las diferencias culturales y la sensibilidad étnica. Este incidente puede impulsar a la industria a reflexionar más y mejorar los mecanismos relevantes, y crear conjuntamente un ecosistema académico más abierto y respetuoso.
Este incidente ha atraído una atención generalizada y también ha hecho sonar la alarma en el campo de la inteligencia artificial, recordando a todos que mientras buscamos el progreso científico y tecnológico, también debemos prestar atención a la ética y la sensibilidad cultural, construir un entorno académico más inclusivo y justo, y Promover el sano desarrollo de la inteligencia artificial.