Le projet d'IA de Google, Gemini, a récemment suscité la controverse en raison de son nouveau règlement intérieur. Selon certaines informations, le personnel externalisé chargé d'évaluer le contenu généré par Gemini a été invité à évaluer des domaines dans lesquels il n'avait pas d'expertise, en particulier dans des domaines sensibles tels que les soins de santé, soulevant des inquiétudes quant à l'exactitude des informations de Gemini. Cet ajustement politique affecte directement le travail du personnel externalisé et affecte indirectement la qualité de l'évaluation de Gemini.
Récemment, le projet d’IA de Google, Gemini, a fait part de ses inquiétudes quant à l’exactitude des informations en raison de son nouveau règlement interne. Selon certaines informations, le personnel externalisé chargé d'évaluer le contenu généré par l'IA est invité à évaluer les domaines dans lesquels il n'a aucune expertise, en particulier sur des sujets sensibles tels que les soins de santé.
Ce personnel externalisé provient de GlobalLogic, une société mondiale de services technologiques. Google leur demande d'évaluer les réponses générées par l'IA, en tenant principalement compte de facteurs tels que « l'authenticité ». Auparavant, les sous-traitants pouvaient choisir de sauter les questions pour lesquelles ils n'avaient aucune expertise pertinente. Par exemple, ils pouvaient choisir de ne pas évaluer une question spécialisée en cardiologie. Ceci est fait pour garantir l’exactitude de la notation et que seules les personnes possédant les connaissances requises peuvent effectuer des évaluations efficaces.
Cependant, la semaine dernière, GlobalLogic a annoncé la dernière exigence de Google, dans laquelle les sous-traitants ne sont désormais plus autorisés à sauter des questions dans de tels domaines d'expertise, mais doivent plutôt évaluer les parties qu'ils comprennent et expliquer leur manque de connaissances dans le domaine concerné. Ce changement a suscité de nombreuses inquiétudes parmi les sous-traitants quant au fait que cette pratique pourrait affecter la précision de Gemini sur certains sujets complexes.
Par exemple, certains sous-traitants ont mentionné dans leurs communications internes que l'ancienne option de saut visait à améliorer la précision de la notation, mais que la mise en œuvre des nouvelles règles les a obligés à évaluer certains problèmes pour lesquels ils n'avaient aucune expérience, comme les maladies rares. Les e-mails internes montrent que la règle d'origine était : « Si vous ne disposez pas de l'expertise nécessaire pour cette tâche, veuillez l'ignorer. » La nouvelle règle est la suivante : « Les invites qui nécessitent une expertise ne doivent pas être ignorées. inconfortable.
En vertu de la nouvelle réglementation, les sous-traitants ne peuvent ignorer les tâches d'évaluation que dans deux situations : l'une est celle où des informations sont complètement manquantes, comme une invite ou une réponse complète ; l'autre est celle où le contenu peut être préjudiciable et nécessite un consentement spécial pour mener l'évaluation. Bien que ces nouvelles règles visent à améliorer les performances de Gemini, elles peuvent affecter sa compréhension et ses retours sur des sujets complexes dans les opérations réelles.
Google n'a pas répondu à cette question et les inquiétudes des sous-traitants augmentent également progressivement.
Souligner:
Le personnel externalisé est invité à évaluer les réponses générées par l’IA dans lesquelles il n’a aucune expertise, notamment dans des domaines sensibles tels que la santé.
Les nouvelles réglementations éliminent l'option « ignorer » et exigent que les sous-traitants obtiennent toujours des notes même s'ils manquent d'expertise.
Cette politique peut affecter la précision de Gemini sur des sujets complexes, provoquant un malaise et des inquiétudes parmi le personnel externalisé.
La réponse de Google aux nouvelles réglementations de Gemini a été retardée et les inquiétudes du personnel d'externalisation continuent de croître, ce qui place le développement futur de Gemini face à de nouveaux défis. La méthode d'évaluation de la précision des modèles d'IA doit être encore améliorée pour garantir la fiabilité et la sécurité de la technologie d'IA.