Como el sistema de inteligencia artificial más poderoso de Google, el lanzamiento de Google Gemini ha atraído mucha atención. Sin embargo, la función de generación de retratos de Géminis ha expuesto recientemente problemas de sesgo, lo que ha provocado preocupación y controversia generalizadas. Este incidente no solo expuso los riesgos potenciales del sesgo en los datos de entrenamiento del modelo de IA, sino que también destacó la importancia de la ética en el desarrollo de la tecnología de IA. Google reconoció el problema y suspendió la función, prometiendo mejoras. Este incidente hizo sonar la alarma para la industria de la inteligencia artificial, lo que llevó a los desarrolladores a prestar más atención a la equidad y confiabilidad de los modelos.
Google Gemini es el sistema de inteligencia artificial más grande, más capaz y más versátil de Google, pero los problemas con su función de generación de retratos han desencadenado una crisis de reputación. El experto en inteligencia artificial Yann LeCun dijo que lo esperaba y señaló que el sesgo de los datos de entrenamiento afectaría el rendimiento del modelo. El problema del sesgo de retrato generado por Gemini ha provocado acaloradas discusiones. Google admitió y suspendió la función y dijo que mejoraría la calidad del servicio. Este incidente desencadenó mayores demandas por parte de expertos en inteligencia artificial y usuarios de contenido generado por modelos.
Este incidente de Google Gemini nos recuerda que el desarrollo de la tecnología de inteligencia artificial debe tener en cuenta el progreso tecnológico y la responsabilidad social para evitar el impacto negativo del sesgo técnico en la sociedad. En el futuro, la formación y aplicación de modelos de IA deberá prestar más atención a la diversidad, la equidad y la interpretabilidad de los datos para garantizar que la tecnología de IA beneficie a la humanidad.