Google a récemment mis à jour ses conditions d'utilisation de l'IA générative afin de définir clairement les applications de l'IA dans des domaines « à haut risque » tels que les soins de santé. Les nouvelles conditions permettent aux clients d'utiliser l'IA générative de Google pour une prise de décision automatisée dans ces domaines, mais uniquement sous supervision humaine. Cette décision a soulevé des inquiétudes dans le domaine de l'IA en ce qui concerne l'application de l'IA dans la prise de décision à enjeux élevés, ainsi que des considérations sur les biais potentiels et les problèmes éthiques. La décision de Google répond dans une certaine mesure aux préoccupations de la société concernant les applications de l'IA et reflète ses efforts pour équilibrer les applications technologiques de l'IA et la gestion des risques.
Google a récemment mis à jour ses conditions d'utilisation de l'IA générative, précisant que les clients peuvent déployer ses outils d'IA générative pour une « prise de décision automatisée » dans des domaines « à haut risque » tels que les soins de santé, mais uniquement sous supervision humaine. Selon la dernière version de la « Politique d'utilisation interdite de l'IA générative » de Google publiée mardi, les clients peuvent utiliser l'IA générative de Google pour prendre des « décisions automatisées » susceptibles d'avoir un « impact négatif important » sur les droits individuels. Les clients peuvent utiliser l'IA générative de Google pour prendre des décisions concernant l'emploi, le logement, l'assurance, la protection sociale et d'autres domaines « à haut risque », à condition qu'il existe une forme de surveillance humaine. Dans le domaine de l’IA, la prise de décision automatisée fait référence aux décisions prises par les systèmes d’IA sur la base de données factuelles et de données déduites. Par exemple, un système peut décider automatiquement d'approuver une demande de prêt ou de filtrer les candidats à un emploi. Auparavant, le projet de conditions de Google faisait allusion à une interdiction générale de l'utilisation de l'IA générative de l'entreprise dans la prise de décision automatisée à enjeux élevés. Mais Google a déclaré à TechCrunch que les clients peuvent toujours utiliser son IA générative pour automatiser les décisions, même pour les applications à haut risque, à condition qu'il y ait une surveillance humaine. "Comme pour tous les domaines à haut risque, nos exigences en matière de surveillance humaine sont toujours présentes dans nos politiques", a déclaré un porte-parole de Google contacté par courrier électronique. "Nous reclassons certains éléments [dans les termes] et les répertorions plus clairement. Donnez quelques exemples. pour donner aux clients une image plus claire. « Les principaux concurrents de Google en matière d'IA, OpenAI et Anthropic, ont des réglementations plus strictes sur l'utilisation de l'IA dans la prise de décision automatisée à enjeux élevés. Par exemple, OpenAI interdit l'utilisation de ses services pour des décisions automatisées liées au crédit, à l'emploi, au logement, à l'éducation, à la notation sociale et à l'assurance. Anthropic permet d'utiliser son IA pour automatiser la prise de décision dans les domaines juridique, des assurances, des soins de santé et d'autres domaines à haut risque, mais seulement si elle est supervisée par un « professionnel qualifié » et exige que les clients divulguent qu'ils utilisent l'IA. à cet effet. L’IA qui automatise la prise de décision affectant les individus a fait l’objet d’un examen minutieux de la part des régulateurs, qui ont exprimé leurs inquiétudes quant aux résultats biaisés que la technologie pourrait créer. Les recherches suggèrent que l’IA utilisée pour approuver les demandes de crédit et d’hypothèque, par exemple, pourrait perpétuer une discrimination historique. Human Rights Watch, une organisation à but non lucratif, a appelé à l'interdiction des systèmes de « notation sociale », qui, selon elle, pourraient compromettre l'accès des personnes à l'aide de la sécurité sociale, compromettre leur vie privée et les profiler de manière biaisée. Les systèmes d'IA à haut risque, y compris ceux qui prennent des décisions en matière de crédit personnel et d'emploi, sont soumis à la réglementation la plus stricte en vertu du projet de loi sur l'intelligence artificielle de l'UE. Les fournisseurs de ces systèmes doivent s'inscrire dans la base de données, effectuer une gestion de la qualité et des risques, employer des superviseurs humains et signaler les incidents aux autorités compétentes, entre autres exigences. Aux États-Unis, le Colorado a récemment adopté une loi obligeant les développeurs d'IA à divulguer des informations sur les systèmes d'IA « à haut risque » et à publier une déclaration résumant les capacités et les limites du système. Pendant ce temps, la ville de New York interdit aux employeurs d'utiliser des outils automatisés pour sélectionner les candidats en vue de décisions d'emploi, à moins que l'outil n'ait fait l'objet d'un audit pour partialité au cours de l'année précédente. Cette fois, Google a clarifié les conditions d’utilisation de l’IA, indiquant l’attitude de l’entreprise à l’égard de la supervision des applications d’IA. Autoriser la prise de décision automatisée dans les zones à haut risque mais souligner l’importance de la supervision manuelle reflète non seulement le potentiel des applications de la technologie de l’IA, mais reflète également la vigilance face aux risques potentiels.
La mise à jour par Google des conditions d’utilisation de l’IA, tout en mettant l’accent sur la supervision manuelle, reflète également les défis et les explorations auxquels les entreprises technologiques sont confrontées en matière de gouvernance de l’IA. Comment concilier innovation et risque dans le contexte du développement rapide de la technologie de l’IA sera une question importante qui nécessitera une attention continue à l’avenir.