Récemment, l'éditeur de Downcodes a appris qu'un groupe d'artistes ayant participé au test du nouveau modèle d'IA texte-vidéo d'OpenAI, Sora, avait publiquement exprimé sa protestation et divulgué les droits d'accès anticipé au modèle parce qu'ils n'étaient pas satisfaits de la méthode de coopération d'OpenAI. Ils pensent qu'OpenAI utilise des artistes à des fins de R&D et de relations publiques gratuites, les traitant uniquement comme des « testeurs de bogues gratuits, des outils publicitaires, des données de formation ou des jetons de vérification », ce qui a suscité une inquiétude généralisée dans l'industrie quant aux droits des artistes dans le développement de l'IA. modèles.
Les artistes ont publié une lettre ouverte sur la plateforme Hugging Face détaillant leur mécontentement, soulignant qu'OpenAI ne fournit qu'une « crédibilité artistique » sans récompenses matérielles correspondantes, ainsi que des restrictions strictes sur les exigences de révision du contenu de Sora. OpenAI a répondu que la participation au test est volontaire et a promis de continuer à soutenir les artistes participants. Cependant, cet incident a également déclenché une réflexion sur l'éthique et les modèles commerciaux dans le développement de modèles d'IA, ainsi que des discussions sur la manière de mieux protéger les droits des artistes.
Les artistes ne sont pas opposés à l'application de la technologie de l'IA à la création artistique, mais ils condamnent fermement l'utilisation par OpenAI de son programme d'accès anticipé pour exploiter le travail des artistes. Ils estiment qu'OpenAI devrait accorder aux artistes une rémunération et un respect équitables, plutôt que de les traiter comme de simples outils permettant d'atteindre les objectifs de l'entreprise.
Dans la lettre ouverte, les artistes ont déclaré : « Chers Enterprise AI Lords, Lorsque nous avons eu accès à Sora, on nous a promis d'être les premiers testeurs et partenaires créatifs. Cependant, nous pensons que nous avons simplement été attirés par un « art ». de blanchiment et de promotion de Sora. » Ils ont souligné que l’artiste n’est pas « un testeur de bogues gratuit, un outil promotionnel, des données de formation ou un jeton de vérification » de l’entreprise.
Ces artistes ne sont pas opposés à l'utilisation de la technologie de l'IA comme outil de création artistique, mais ils sont mécontents du programme d'accès anticipé d'OpenAI, qui, selon eux, exploite la créativité des artistes pour un travail non rémunéré.
Ils ont critiqué OpenAI pour leur avoir fourni un « crédit artistique » dans leurs projets sans rendre la pareille au travail. En particulier, ils se sont opposés aux exigences de modération d'OpenAI pour le contenu de Sora, affirmant que chaque contenu généré devait être approuvé par l'équipe OpenAI avant de pouvoir être partagé.
Contacté par les médias, OpenAI n'a pas confirmé l'authenticité de la fuite de Sora, mais a souligné que les artistes participant à « l'aperçu de la recherche » étaient volontaires et n'étaient pas tenus de fournir des commentaires ou d'utiliser l'outil. Un porte-parole d'OpenAI a déclaré : "Sora est encore en phase de recherche et nous travaillons dur pour équilibrer la créativité avec les mesures de sécurité. La participation de centaines d'artistes nous aide à donner la priorité aux nouvelles fonctionnalités et garanties. De plus, OpenAI promet de continuer à soutenir." l'entreprise par le biais de subventions, d'événements et de soutenir les artistes participants par d'autres moyens.
Plus tôt, Mira Murati, l'ancienne directrice de la technologie d'OpenAI, a déclaré que Sora devrait être publié avant la fin de l'année, mais ne publiera rien car ils ne sont pas sûrs de l'impact du modèle.
Dans une récente séance de questions-réponses sur Reddit, Kevin Weil, directeur produit, a mentionné que la raison pour laquelle Sora n'a pas encore été publié est la nécessité d'étendre ses capacités, d'assurer la sécurité et de prévenir les problèmes d'imposture.
Cet incident souligne une fois de plus l'importance de l'éthique et de la moralité dans le développement de l'intelligence artificielle, et nous rappelle également de prêter attention au souci humaniste du progrès technologique. Comment équilibrer l’innovation technologique et les droits des artistes sera une question qui devra être sérieusement prise en compte dans le développement futur de l’IA. L'éditeur de Downcodes continuera à prêter attention à l'évolution ultérieure de l'incident.