En tant que système d'IA le plus puissant de Google, la sortie de Google Gemini a attiré beaucoup d'attention. Cependant, la fonction de génération de portraits de Gemini a récemment révélé des problèmes de biais, suscitant de nombreuses inquiétudes et controverses. Cet incident a non seulement révélé les risques potentiels de biais dans les données de formation des modèles d’IA, mais a également souligné l’importance de l’éthique dans le développement de la technologie de l’IA. Google a reconnu le problème et suspendu la fonctionnalité, promettant des améliorations. Cet incident a sonné l'alarme pour l'industrie de l'IA, incitant les développeurs à accorder plus d'attention à l'équité et à la fiabilité des modèles.
Google Gemini est le système d'IA de Google le plus grand, le plus performant et le plus polyvalent, mais des problèmes liés à sa fonction de génération de portraits ont déclenché une crise de réputation. L'expert en IA Yann LeCun a déclaré qu'il s'y attendait, soulignant que le biais des données de formation affecterait les performances du modèle. Le problème du biais de portrait généré par Gemini a suscité de vives discussions. Google a admis et suspendu la fonction et a déclaré qu'elle améliorerait la qualité du service. Cet incident a déclenché des demandes plus élevées de la part des experts en IA et des utilisateurs en matière de contenu généré par les modèles.
Cet incident de Google Gemini nous rappelle que le développement de la technologie de l'IA doit prendre en compte le progrès technologique et la responsabilité sociale afin d'éviter l'impact négatif des préjugés techniques sur la société. À l’avenir, la formation et l’application des modèles d’IA devront accorder davantage d’attention à la diversité, à l’équité et à l’interprétabilité des données afin de garantir que la technologie de l’IA profite à l’humanité.