Recientemente, la empresa de detección de plagio Copyleaks publicó un informe que afirma que hasta el 60% del contenido generado por el modelo GPT-3.5 de OpenAI contiene diferentes formas de plagio. El informe generó preocupaciones generalizadas sobre problemas de derechos de autor y originalidad en los modelos de IA. Copyleaks utiliza un método de puntuación de desarrollo propio que considera de manera integral factores como la similitud del texto, cambios menores e interpretaciones. El informe muestra que las ciencias de la computación, la física, la psicología y otras materias tienen mayores similitudes, mientras que el teatro, las humanidades, el inglés y otras materias tienen menores similitudes. OpenAI respondió que ha tomado medidas para limitar la memoria involuntaria de modelos y prohíbe explícitamente a los usuarios reeditar contenido deliberadamente.
La empresa de detección de plagio Copyleaks publicó recientemente un informe que afirma que hasta el 60% del contenido generado por el modelo de lenguaje GPT-3.5 lanzado por OpenAI contiene diferentes formas de plagio. Copyleaks utiliza un método de puntuación de desarrollo propio que considera múltiples factores como la similitud del texto, cambios menores y paráfrasis para determinar contenido similar como "plagio". La informática, la física, la psicología y otras materias tienen las mayores similitudes, mientras que el teatro, las humanidades y el inglés tienen menores similitudes. OpenAI declaró que ha tomado varias medidas para limitar la memoria no intencional, y los términos de uso también prohíben claramente a los usuarios permitir deliberadamente que el modelo reprograme contenido. Además, además de la conocida demanda presentada por el New York Times, algunos creadores de contenido también intentan afirmar que el modelo de IA fue entrenado en sus obras, por lo que el contenido que produce copias aproximadas también debería recibir un compartir.El informe no solo destaca los desafíos de los modelos de IA en la generación de contenido, sino que también desencadena debates sobre una serie de cuestiones legales y éticas, como los derechos de autor de los datos de entrenamiento del modelo de IA, la originalidad del contenido y la propiedad intelectual. promover el desarrollo saludable de la tecnología de IA.