Recientemente, OpenAI presentó una protesta contra el Tribunal Superior de Delhi por la decisión de la India de eliminar los datos de entrenamiento de ChatGPT, lo que llamó la atención. El caso surge de una demanda presentada por la agencia de noticias india ANI, que acusó a OpenAI de utilizar su contenido para entrenar ChatGPT sin autorización y solicitó la eliminación de datos relevantes. La medida desencadenó debates generalizados sobre el uso de los derechos de autor y la jurisdicción de los datos por parte de las empresas de inteligencia artificial, y también destacó la relación cada vez más tensa entre el desarrollo de la inteligencia artificial y la regulación legal en todo el mundo.
Recientemente, la empresa estadounidense de inteligencia artificial OpenAI presentó una defensa contra el fallo del Tribunal Superior de Delhi en India, argumentando que el tribunal no tenía derecho a exigirle que eliminara los datos de entrenamiento de ChatGPT. El caso surge de una demanda presentada por la agencia de noticias india ANI en noviembre del año pasado, alegando que OpenAI utilizó su contenido publicado sin autorización para entrenar ChatGPT. ANI solicitó que su contenido fuera eliminado del conjunto de datos de entrenamiento del modelo y acusó a OpenAI de infracción de derechos de autor.
En un documento de 86 páginas presentado ante el Tribunal Superior de Delhi el 10 de enero, OpenAI dijo que, según la ley estadounidense, los datos de capacitación deben conservarse mientras los procedimientos estén en curso. Por lo tanto, la orden de eliminación de datos de la India entra en conflicto con sus responsabilidades legales. OpenAI enfatizó que dado que la empresa no tiene presencia física ni servidores en India, el tribunal no tiene jurisdicción sobre sus operaciones. "Los servidores que almacenan los datos de entrenamiento de ChatGPT están ubicados fuera de la India", señaló OpenAI en el documento.
Aunque OpenAI declaró que dejará de usar el contenido de ANI en el futuro, a ANI todavía le preocupa que el material que se ha integrado en el conjunto de datos ChatGPT continúe provocando copias no autorizadas. La ANI también expresó su preocupación por los acuerdos comerciales de OpenAI con organizaciones de medios internacionales, que en su opinión podrían conducir a una competencia desleal. ANI dijo que ChatGPT había copiado el contenido de sus artículos casi palabra por palabra cuando los usuarios hacían preguntas.
La audiencia judicial sobre el caso está prevista para el 28 de enero. ANI es una organización parcialmente propiedad de Reuters, y Reuters ha dejado claro que no está involucrada en las decisiones comerciales ni en las disputas legales de ANI. La demanda es parte de un desafío más amplio contra las empresas de inteligencia artificial que hacen mal uso de material protegido por derechos de autor para entrenar modelos. En Estados Unidos, OpenAI también se defiende de acusaciones similares, incluido un caso de alto perfil presentado por el New York Times. OpenAI siempre ha sostenido que sus sistemas de inteligencia artificial se basan en datos disponibles públicamente y cumplen con las protecciones de uso legítimo.
Destacar:
OpenAI afirmó que el Tribunal Superior de Delhi no tenía autoridad para ordenar la eliminación de sus datos de entrenamiento porque sus servidores estaban ubicados en el extranjero.
ANI demandó a OpenAI por uso no autorizado de su contenido, solicitó la eliminación de datos relevantes y presunta infracción.
La audiencia judicial del caso está prevista para el 28 de enero. OpenAI también enfrenta desafíos de derechos de autor similares en los Estados Unidos.
El veredicto final en este caso tendrá implicaciones de gran alcance para el uso de datos y las cuestiones de derechos de autor de las empresas de IA, y podría sentar un precedente para disputas similares en el futuro. El resultado del caso merece una atención continua.