L'outil de génération d'images Gemini AI de Google a récemment été largement critiqué pour le risque de discrimination raciale dans les images qu'il génère. L’incident met en lumière les défis éthiques rencontrés dans le développement de la technologie de l’intelligence artificielle, ainsi que les responsabilités des grandes entreprises technologiques dans la construction de systèmes d’IA responsables. Google a répondu rapidement aux commentaires des utilisateurs, résolvant de toute urgence les problèmes liés à l'outil et mettant l'accent sur la diversité et l'inclusion. Cet incident nous rappelle également une fois de plus que, même si la technologie de l’IA se développe rapidement, nous devons accorder davantage d’attention à son impact social potentiel et prendre activement des mesures pour éviter les préjugés et la discrimination.
L'outil de génération d'images Gemini AI de Google a suscité des critiques de la part des utilisateurs en raison du risque de discrimination raciale lié à la génération d'images diverses. Google corrige de toute urgence ses outils pour éviter les accusations et affirme prendre les problèmes de diversité au sérieux. Gemini a commis des erreurs en matière de diversité dans le passé et Google doit montrer son leadership dans le développement de l'IA.
La réponse rapide de Google montre cette fois qu'il prend les commentaires négatifs au sérieux, mais elle expose également les domaines dans lesquels il doit encore être amélioré dans la formation et le déploiement des modèles d'IA. À l'avenir, Google devra renforcer davantage le suivi et l'évaluation des modèles d'IA pour garantir que le contenu qu'il génère est conforme aux normes éthiques et éviter que des incidents similaires ne se reproduisent, afin de pouvoir véritablement réaliser un développement juste, juste et durable de l'IA. technologie.