Con el uso generalizado de la tecnología de inteligencia artificial en las redes sociales y en los motores de búsqueda, los gigantes tecnológicos Google y la Meta AI usan la IA para generar resumen y respuestas de comentarios de los usuarios, aumentando nuevos riesgos legales. Especialmente en casos de difamación, este movimiento puede poner la plataforma en una mayor responsabilidad legal. La jurisprudencia del Tribunal Superior de Australia proporciona una base legal para este riesgo de que la plataforma no solo sea un operador de información, sino que también puede considerarse como editor. Este artículo analizará los riesgos de difamación que enfrentan Google y Meta usando IA para generar contenido y las medidas que toman para reducir los riesgos.
A medida que evoluciona la tecnología de inteligencia artificial, compañías de tecnología como Google y meta usan revisiones o revisiones de usuarios para generar respuestas de IA en sus plataformas, lo que podría conducir a nuevos riesgos legales de difamación.
Los expertos legales australianos señalan que cuando los usuarios publican comentarios sospechosos de difamación en Google o Facebook, generalmente son legalmente responsables. Sin embargo, en 2021, una decisión importante del Tribunal Superior de Australia en el caso de Dylan Waller argumenta que las plataformas que llevan comentarios difamatorios, como las páginas de redes sociales, también pueden ser legalmente responsables de esos comentarios.
Estas compañías tecnológicas han sido procesadas por problemas de difamación varias veces durante el último período de tiempo. Por ejemplo, Google se vio obligado a pagar más de $ 700,000 al ex gobernador de NSW John Barry Laro en 2022 porque la compañía organizó un video de difamación. Además, Google fue sentenciado a $ 40,000 en 2020 por resultados de búsqueda que vinculan a un artículo de noticias sobre un abogado de Melbourne, aunque el Tribunal Superior anuló la sentencia.
La semana pasada, Google comenzó a lanzar una función de mapa en los Estados Unidos en función de su nueva tecnología AI Gemini, que permite a los usuarios consultar ubicaciones o eventos de juego y resumir las revisiones de los usuarios de restaurantes o ubicaciones. Al mismo tiempo, Google también ha lanzado una función de descripción general de IA en los resultados de búsqueda a los usuarios australianos, proporcionando a los usuarios un breve resumen de los resultados de búsqueda. Meta ha comenzado a proporcionar servicios de generación de IA para un resumen de comentarios en su plataforma de Facebook, especialmente los comentarios publicados por las organizaciones de noticias.
El experto legal Michael Douglas dijo que a medida que se promueven estas tecnologías, algunos casos pueden llegar a los tribunales. Él cree que si Meta absorbe comentarios y genera respuestas que contienen contenido difamatorio, Meta se considerará un editor y puede enfrentar responsabilidad por difamación. Señaló que aunque la compañía puede proponer una defensa de la "comunicación inocente", las posibilidades de éxito de esta defensa no son altas.
David Rolf, profesor titular de la Universidad de Sydney, dijo que el fenómeno de los repetidos comentarios difamatorios de la IA podría causar problemas a las empresas tecnológicas, aunque las recientes reformas de la ley de difamación pueden reducir los riesgos. Señaló que se implementaron nuevas reformas legales antes de que la tecnología de IA se usara ampliamente y, por lo tanto, no pudo abordar completamente los desafíos presentados por las nuevas tecnologías.
Al abordar estos riesgos legales, Miriam Daniel, vicepresidenta de Google Maps, dijo que su equipo trabajó para eliminar comentarios falsos y que la tecnología de IA fue diseñada para proporcionar una "perspectiva equilibrada". Meta también dijo que su IA todavía está mejorando y que puede haber una salida inexacta o inapropiada.
Puntos clave:
Los expertos legales australianos advierten que el contenido generado por la IA de Google y Meta podría enfrentar un nuevo riesgo de difamación.
Un fallo de 2021 sostiene que las plataformas que tienen comentarios difamatorios también pueden tener responsabilidad legal.
Google y Meta están lanzando capacidades de IA al tiempo que fortalecen la gestión de comentarios falsos para reducir los riesgos legales.
En resumen, la aplicación de la tecnología AI ha traído conveniencia a las empresas de tecnología, pero también trajo nuevos desafíos legales. Cómo equilibrar la innovación y el control de riesgos será un tema clave para estas empresas en el futuro. La mejora de las leyes y regulaciones y la mejora continua de la tecnología determinarán conjuntamente el destino de la tecnología de IA en el desarrollo futuro.