Recientemente, el editor de Downcodes se enteró de que un grupo de artistas que participaron en la prueba del nuevo modelo de IA de texto a video de OpenAI, Sora, expresaron públicamente su protesta y filtraron los derechos de acceso temprano al modelo porque no estaban satisfechos con el método de cooperación de OpenAI. Creen que OpenAI utiliza artistas para I+D y relaciones públicas gratuitas, tratándolos sólo como "probadores de errores, herramientas publicitarias, datos de entrenamiento o tokens de verificación gratuitos", lo que ha provocado una preocupación generalizada en la industria sobre los derechos de los artistas en el desarrollo de la IA. modelos.
Los artistas publicaron una carta abierta en la plataforma Hugging Face detallando su descontento, señalando que OpenAI sólo proporciona "credibilidad artística" sin las correspondientes recompensas materiales, así como restricciones estrictas en los requisitos de revisión de contenido de Sora. OpenAI respondió que la participación en la prueba es voluntaria y prometió seguir apoyando a los artistas participantes. Sin embargo, este incidente también ha provocado que la gente piense sobre la ética y los modelos de negocio en el desarrollo de modelos de IA, así como debates sobre cómo proteger mejor los derechos de los artistas.
Los artistas no se oponen a la aplicación de la tecnología de inteligencia artificial a la creación artística, pero condenan enérgicamente el uso por parte de OpenAI de su programa de acceso temprano para explotar el trabajo de los artistas. Creen que OpenAI debería ofrecer a los artistas un salario justo y respeto, en lugar de tratarlos como meras herramientas para lograr los objetivos de la empresa.
En la carta abierta, los artistas decían: "Estimados señores de la IA empresarial: Cuando nos dieron acceso a Sora, se nos prometió que seríamos los primeros evaluadores y socios creativos. Sin embargo, creemos que simplemente nos atrajeron a un 'arte'". de blanquear y promocionar a Sora". Enfatizaron que el artista no es el "probador de errores gratuito, herramienta promocional, datos de entrenamiento o token de verificación" de la compañía.
Estos artistas no se oponen al uso de la tecnología de inteligencia artificial como herramienta para la creación artística, pero no están satisfechos con el programa de acceso temprano de OpenAI, que creen que explota la creatividad de los artistas a cambio de trabajo no remunerado.
Criticaron a OpenAI por brindarles "crédito artístico" en proyectos sin corresponder el trabajo. En particular, se opusieron a los requisitos de moderación de OpenAI para el contenido de Sora, diciendo que cada contenido generado debía ser aprobado por el equipo de OpenAI antes de poder compartirse.
Cuando los medios lo contactaron, OpenAI no confirmó la autenticidad de la filtración de Sora, pero enfatizó que los artistas que participaron en la "vista previa de la investigación" eran voluntarios y no estaban obligados a proporcionar comentarios ni utilizar la herramienta. Un portavoz de OpenAI dijo: "Sora todavía se encuentra en la fase de investigación y estamos trabajando arduamente para equilibrar la creatividad con las medidas de seguridad. La participación de cientos de artistas nos ayuda a priorizar nuevas funciones y salvaguardas. Además, OpenAI promete continuar apoyándonos". la empresa a través de subvenciones, eventos y apoyar a los artistas participantes de otras maneras.
Anteriormente, Mira Murati, ex directora de tecnología de OpenAI, dijo que se espera que Sora se lance antes de fin de año, pero no publicará nada en lo que no estén seguros del impacto del modelo.
En una reciente sesión de preguntas y respuestas de Reddit, el director de producto Kevin Weil mencionó que la razón por la que Sora aún no se ha lanzado es la necesidad de ampliar sus capacidades, garantizar la seguridad y evitar problemas de impostores.
Este incidente resalta una vez más la importancia de la ética y la moral en el desarrollo de la inteligencia artificial y también nos recuerda que debemos prestar atención al cuidado humanista detrás del progreso tecnológico. Cómo equilibrar la innovación tecnológica y los derechos de los artistas será una cuestión que deberá considerarse seriamente en el futuro desarrollo de la IA. El editor de Downcodes seguirá atento al desarrollo posterior del incidente.