Google a récemment mis à jour ses conditions d'utilisation de l'IA générative, permettant aux clients d'utiliser ses outils d'IA générative pour prendre des décisions automatisées dans des domaines à haut risque tels que les soins médicaux et l'emploi, mais uniquement sous supervision humaine. Cette décision a déclenché des discussions au sein du secteur sur l’application de l’IA dans les zones à haut risque et des inquiétudes concernant la supervision associée. La décision de Google contraste avec ses concurrents OpenAI et Anthropic, qui imposent des restrictions plus strictes sur la prise de décision automatisée à enjeux élevés. Cette mise à jour souligne également le besoin urgent d’une réglementation de l’IA à l’échelle mondiale et le défi consistant à équilibrer l’innovation en matière d’IA avec les risques potentiels.
Google a récemment mis à jour ses conditions d'utilisation de l'IA générative, autorisant explicitement les clients à utiliser ses outils d'IA générative pour une « prise de décision automatisée » dans des domaines « à haut risque », tels que les soins de santé et l'emploi, à condition qu'une supervision humaine soit requise. Ce changement se reflète dans la nouvelle politique de l’entreprise interdisant l’utilisation de l’IA générative.
Remarque sur la source de l'image : l'image est générée par l'IA et le fournisseur de services d'autorisation d'image Midjourney
En vertu de la politique mise à jour, les clients peuvent utiliser l'IA générative de Google, sous supervision, pour prendre des décisions automatisées qui pourraient avoir un « impact négatif important » sur les droits d'un individu. Ces domaines à haut risque comprennent l’emploi, le logement, les assurances, la protection sociale, etc. Les termes précédents semblaient interdire complètement la prise de décision automatisée à haut risque, mais Google a déclaré qu'il avait en fait autorisé dès le début l'utilisation de l'IA générative pour de telles décisions sous supervision humaine.
Un porte-parole de Google a répondu aux médias en déclarant : "L'exigence d'une supervision humaine a toujours existé dans nos politiques et couvre tous les domaines à haut risque. Nous venons de reclasser certains termes et d'énumérer quelques exemples plus clairement pour que les utilisateurs puissent les comprendre."
Par rapport à l'approche de Google, les principaux concurrents de Google, tels qu'OpenAI et Anthropic, appliquent des réglementations plus strictes en matière de prise de décision automatisée à enjeux élevés. OpenAI interdit l'utilisation de ses services pour des décisions automatisées liées au crédit, à l'emploi, au logement, à l'éducation, à la notation sociale et à l'assurance. Anthropic permet à son IA de prendre des décisions automatisées dans des domaines à haut risque tels que le droit, les assurances et les soins médicaux, mais uniquement sous la supervision de « professionnels qualifiés » et exige que les clients l'informent clairement de l'utilisation de l'IA pour de telles décisions.
Concernant les systèmes d’IA pour la prise de décision automatisée, les régulateurs ont exprimé leur inquiétude quant au fait que ces technologies pourraient conduire à des résultats biaisés. Par exemple, des recherches montrent que l’IA peut perpétuer une discrimination historique dans l’approbation des demandes de prêt et d’hypothèque.
Human Rights Watch et d'autres organisations à but non lucratif ont spécifiquement appelé à l'interdiction des systèmes de « notation sociale », arguant qu'ils menacent l'accès des personnes à la sécurité sociale et peuvent porter atteinte à la vie privée et créer un profilage biaisé.
Dans l’UE, les systèmes d’IA à haut risque, y compris ceux impliquant des décisions de crédit personnel et d’emploi, sont soumis à la surveillance la plus stricte en vertu de la loi sur l’IA. Les fournisseurs de ces systèmes doivent, entre autres, s'inscrire dans des bases de données, gérer la qualité et les risques, employer des superviseurs humains et signaler les incidents aux autorités compétentes.
Aux États-Unis, le Colorado a récemment adopté une loi obligeant les développeurs d'IA à divulguer des informations sur les systèmes d'IA « à haut risque » et à publier un résumé des capacités et des limites du système. Pendant ce temps, la ville de New York interdit aux employeurs d'utiliser des outils automatisés pour sélectionner les candidats, à moins que l'outil n'ait fait l'objet d'un audit de partialité au cours de l'année écoulée.
Souligner:
Google autorise l’utilisation de l’IA générative dans les zones à haut risque, mais nécessite une supervision humaine.
D’autres sociétés d’IA telles qu’OpenAI et Anthropic imposent des restrictions plus strictes sur les décisions à haut risque.
Les régulateurs de divers pays examinent les systèmes d’IA pour une prise de décision automatisée afin d’éviter des résultats biaisés.
La mise à jour par Google des conditions d’utilisation de l’IA générative a déclenché de vastes discussions sur l’éthique et la réglementation de l’IA. Les gouvernements et les institutions du monde entier étudient également activement les moyens de mieux réglementer la technologie de l’IA pour garantir son développement sûr et responsable. À l’avenir, l’application de l’IA dans les domaines à haut risque fera l’objet d’un examen et d’une supervision plus stricts.