Google actualizó recientemente sus términos de uso de la IA generativa para definir claramente las aplicaciones de IA en áreas de “alto riesgo”, como la atención médica. Los nuevos términos permiten a los clientes utilizar la IA generativa de Google para la toma de decisiones automatizada en estas áreas, pero sólo con supervisión humana. La medida ha generado preocupaciones en el campo de la IA en lo que respecta a la aplicación de la IA en la toma de decisiones de alto riesgo, así como consideraciones sobre posibles sesgos y cuestiones éticas. La medida de Google responde hasta cierto punto a las preocupaciones de la sociedad sobre las aplicaciones de IA y refleja sus esfuerzos por equilibrar las aplicaciones de tecnología de IA y la gestión de riesgos.
Google actualizó recientemente sus términos de uso para la IA generativa, aclarando que los clientes pueden implementar sus herramientas de IA generativa para la "toma de decisiones automatizada" en áreas de "alto riesgo" como la atención médica, pero sólo con supervisión humana. Según la última versión de la "Política de uso prohibido de IA generativa" de Google publicada el martes, los clientes pueden utilizar la IA generativa de Google para tomar "decisiones automatizadas" que pueden tener un "impacto material adverso" en los derechos individuales. Los clientes pueden utilizar la IA generativa de Google para tomar decisiones sobre empleo, vivienda, seguros, bienestar social y otras áreas de "alto riesgo", siempre que exista algún tipo de supervisión humana. En el campo de la IA, la toma de decisiones automatizada se refiere a decisiones tomadas por sistemas de IA basadas en datos fácticos y datos inferidos. Por ejemplo, un sistema podría decidir automáticamente si aprobar una solicitud de préstamo o seleccionar a los solicitantes de empleo. Anteriormente, el borrador de los términos de Google insinuaba una prohibición total del uso de la IA generativa de la compañía en la toma de decisiones automatizadas de alto riesgo. Pero Google le dijo a TechCrunch que los clientes siempre pueden usar su IA generativa para automatizar decisiones, incluso para aplicaciones de alto riesgo, siempre que exista supervisión humana. "Como ocurre con todas las áreas de alto riesgo, nuestros requisitos de supervisión humana siempre están presentes en nuestras políticas", dijo un portavoz de Google cuando fue contactado por correo electrónico. "Estamos reclasificando algunos elementos [en los términos] y enumerándolos con mayor claridad. para ofrecer a los clientes una imagen más clara "Los principales competidores de Google en materia de IA, OpenAI y Anthropic, tienen regulaciones más estrictas sobre el uso de la IA en la toma de decisiones automatizadas de alto riesgo. Por ejemplo, OpenAI prohíbe el uso de sus servicios para decisiones automatizadas relacionadas con crédito, empleo, vivienda, educación, puntuación social y seguros. Anthropic permite que su IA se use para automatizar la toma de decisiones en áreas legales, de seguros, de atención médica y otras áreas de alto riesgo, pero solo si está supervisada por un "profesional calificado" y requiere que los clientes revelen que están usando la IA. para este propósito. La IA que automatiza la toma de decisiones que afectan a los individuos ha sido objeto de escrutinio por parte de los reguladores, quienes han expresado su preocupación por los resultados sesgados que podría crear la tecnología. Las investigaciones sugieren que la IA utilizada para aprobar solicitudes de crédito e hipotecas, por ejemplo, podría perpetuar la discriminación histórica. Human Rights Watch, una organización sin fines de lucro, ha pedido la prohibición de los sistemas de "puntuación social", que, según afirma, podrían socavar el acceso de las personas al apoyo de la seguridad social, comprometer su privacidad y perfilarlos de manera sesgada. Los sistemas de IA de alto riesgo, incluidos aquellos que toman decisiones crediticias personales y laborales, se enfrentan a la regulación más estricta en virtud del Proyecto de Ley de Inteligencia Artificial de la UE. Los proveedores de estos sistemas deben registrarse en la base de datos, realizar gestión de riesgos y calidad, emplear supervisores humanos y reportar incidentes a las autoridades pertinentes, entre otros requisitos. En Estados Unidos, Colorado aprobó recientemente una ley que exige a los desarrolladores de IA revelar información sobre sistemas de IA de "alto riesgo" y emitir una declaración que resuma las capacidades y limitaciones del sistema. Mientras tanto, la ciudad de Nueva York prohíbe a los empleadores utilizar herramientas automatizadas para seleccionar candidatos para decisiones laborales a menos que la herramienta haya sido auditada para detectar sesgos durante el año anterior. Esta vez Google aclaró los términos de uso de la IA, indicando la actitud de la empresa hacia la supervisión de las aplicaciones de IA. Permitir la toma de decisiones automatizada en áreas de alto riesgo pero enfatizar la importancia de la supervisión manual no solo refleja el potencial de las aplicaciones de la tecnología de IA, sino que también refleja la vigilancia contra riesgos potenciales.
La actualización de Google de las condiciones de uso de la IA, si bien enfatiza la supervisión manual, también refleja los desafíos y las exploraciones que enfrentan las empresas de tecnología en la gobernanza de la IA. Cómo equilibrar la innovación y el riesgo en el contexto del rápido desarrollo de la tecnología de IA será una cuestión importante que requerirá atención continua en el futuro.