Nvidia está siendo demandada por tres autores por utilizar su trabajo para entrenar su plataforma NeMo AI sin permiso. La acusación afirma que los trabajos de los autores se incluyeron en conjuntos de datos a gran escala para capacitación y luego se eliminaron una vez finalizada la capacitación. Esta medida ha despertado una preocupación generalizada en la industria sobre las cuestiones de derechos de autor en el campo de la IA y también ha puesto de relieve los riesgos legales y los desafíos éticos existentes en el desarrollo de la inteligencia artificial. Nvidia aún no ha respondido a este asunto. La dirección del caso tendrá un profundo impacto en el futuro entrenamiento de modelos de IA y el uso de datos, y puede conducir a la mejora de las leyes y regulaciones pertinentes.
Nvidia fue demandada por tres autores por utilizar obras infractoras para entrenar la plataforma NeMo AI sin permiso. La demanda alega que el trabajo del autor pasó a formar parte de un conjunto de datos a gran escala y fue eliminado después del entrenamiento. El caso ha provocado un debate sobre cuestiones de derechos de autor en el campo de la inteligencia artificial y Nvidia aún no ha respondido. Este incidente puede tener un impacto importante en la protección de los derechos de autor en el campo de la IA.
Este caso no sólo tiene un impacto directo en Nvidia, sino que también supone una llamada de atención para toda la industria de la IA, recordando a las empresas que deben ser más cautelosas en el uso de datos para evitar la infracción de los derechos de propiedad intelectual. En el futuro, la formación y aplicación de modelos de IA inevitablemente prestará más atención al cumplimiento de los derechos de autor, lo que promoverá un desarrollo más saludable y sostenible en el campo de la IA.