Le PDG de Google, Pichai, a récemment exprimé son fort mécontentement face aux erreurs dans la génération d'images Gemini AI, les qualifiant de "totalement inacceptables" et a promis de prendre des mesures pour corriger ces problèmes. Cela reflète les défis rencontrés dans le développement de grands modèles de langage, ainsi que les préoccupations croissantes concernant l'exactitude et l'équité. Pichai a souligné que Google s'engage à fournir des informations précises et fiables et prévoit de mener des réformes structurelles en profondeur pour éviter que des incidents similaires ne se reproduisent. Cela indique également que le domaine de l’intelligence artificielle accordera à l’avenir davantage d’attention à la fiabilité et à la sécurité des modèles. La nouvelle publiée le 28 février 2024 donne un contexte temporel à cet incident.
L’article se concentre sur :
Le PDG de Google, Sundar Pichai, a critiqué l'erreur de génération d'images Gemini AI, la qualifiant de "complètement inacceptable". Il a souligné que l'équipe corrige constamment ces problèmes et qu'il est nécessaire que l'entreprise fournisse des informations impartiales et précises. En outre, il a déclaré que des réformes structurelles approfondies seraient menées pour éviter que des incidents similaires ne se reproduisent. L'article a été publié le 2024-02-28.
La déclaration de Pichai montre que Google s'attaque activement aux limites des modèles d'IA et s'efforce d'améliorer la précision et la fiabilité de Gemini AI. Cela n'est pas seulement lié à la réputation de Google, mais reflète également l'importance que l'ensemble du secteur de l'IA attache à la perfection technique et à la responsabilité éthique. À l’avenir, des événements similaires pourraient inciter à davantage de normalisation et de développement dans le domaine de l’IA.