Google actualizó recientemente sus términos de uso para la IA generativa, permitiendo a los clientes utilizar sus herramientas de IA generativa para la toma de decisiones automatizada en áreas de alto riesgo como la atención médica y el empleo, pero solo con supervisión humana. Esta medida ha desencadenado debates en la industria sobre la aplicación de la IA en áreas de alto riesgo y preocupaciones sobre la supervisión relacionada. La medida de Google contrasta con sus competidores OpenAI y Anthropic, que tienen restricciones más estrictas en la toma automatizada de decisiones de alto riesgo. Esta actualización también destaca la urgente necesidad de regular la IA a nivel mundial y el desafío de equilibrar la innovación en IA con los riesgos potenciales.
Google actualizó recientemente sus términos de uso para la IA generativa, permitiendo explícitamente a los clientes usar sus herramientas de IA generativa para la "toma de decisiones automatizada" en áreas de "alto riesgo", como la atención médica y el empleo, siempre que se requiera supervisión humana. Este cambio se refleja en la política recientemente publicada por la compañía que prohíbe el uso de IA generativa.
Nota sobre la fuente de la imagen: la imagen es generada por IA y el proveedor de servicios de autorización de imágenes Midjourney
Según la política actualizada, los clientes pueden utilizar la IA generativa de Google, con supervisión, para tomar decisiones automatizadas que podrían tener un "impacto material adverso" en los derechos de un individuo. Estas áreas de alto riesgo incluyen empleo, vivienda, seguros, bienestar social, etc. La disposición anterior parecía tener una prohibición total de la toma de decisiones automatizada de alto riesgo, pero Google dijo que en realidad ha permitido el uso de IA generativa para tales decisiones bajo supervisión humana desde el principio.
Un portavoz de Google respondió a los medios diciendo: "El requisito de supervisión humana siempre ha existido en nuestras políticas y cubre todas las áreas de alto riesgo. Acabamos de reclasificar algunos términos y enumeramos algunos ejemplos más claramente para que los usuarios los entiendan".
En comparación con el enfoque de Google, los principales competidores de Google, como OpenAI y Anthropic, tienen regulaciones más estrictas sobre la toma automatizada de decisiones de alto riesgo. OpenAI prohíbe el uso de sus servicios para decisiones automatizadas relacionadas con crédito, empleo, vivienda, educación, puntuación social y seguros. Anthropic permite que su IA tome decisiones automatizadas en áreas de alto riesgo como leyes, seguros y atención médica, pero sólo bajo la supervisión de "profesionales calificados" y requiere que los clientes le informen claramente sobre el uso de IA para tales decisiones.
En cuanto a los sistemas de inteligencia artificial para la toma de decisiones automatizada, los reguladores han expresado su preocupación de que dichas tecnologías puedan conducir a resultados sesgados. Por ejemplo, las investigaciones muestran que la IA puede perpetuar la discriminación histórica en la aprobación de solicitudes de préstamos e hipotecas.
Human Rights Watch y otras organizaciones sin fines de lucro han pedido específicamente la prohibición de los sistemas de "puntuación social", argumentando que amenazan el acceso de las personas a la seguridad social y pueden invadir la privacidad y crear perfiles sesgados.
En la UE, los sistemas de IA de alto riesgo, incluidos los que involucran decisiones crediticias personales y laborales, enfrentan la supervisión más estricta en virtud de la Ley de IA. Los proveedores de estos sistemas deben registrarse en bases de datos, realizar gestión de riesgos y calidad, emplear supervisores humanos y reportar incidentes a las autoridades pertinentes, entre otras cosas.
En Estados Unidos, Colorado aprobó recientemente una ley que exige a los desarrolladores de IA revelar información sobre sistemas de IA de "alto riesgo" y publicar un resumen de las capacidades y limitaciones del sistema. Mientras tanto, la ciudad de Nueva York prohíbe a los empleadores utilizar herramientas automatizadas para seleccionar candidatos a menos que la herramienta haya sido sometida a una auditoría de sesgo durante el último año.
Reflejos:
Google permite el uso de IA generativa en áreas de alto riesgo, pero requiere supervisión humana.
Otras empresas de inteligencia artificial, como OpenAI y Anthropic, tienen restricciones más estrictas sobre las decisiones de alto riesgo.
Los reguladores de varios países están revisando los sistemas de inteligencia artificial para la toma de decisiones automatizada y evitar resultados sesgados.
La actualización de Google de las condiciones de uso de la IA generativa ha desencadenado debates generalizados sobre la ética y la regulación de la IA. Los gobiernos e instituciones de todo el mundo también están explorando activamente cómo regular mejor la tecnología de la IA para garantizar su desarrollo seguro y responsable. En el futuro, la aplicación de la IA en campos de alto riesgo se enfrentará a una revisión y supervisión más estrictas.