La version Midjourney V6 a commencé les tests alpha le 21 décembre, mais elle a suscité une controverse car les images générées étaient soupçonnées de violation du droit d'auteur. Après avoir été testés par de nombreux artistes, ils ont découvert que les images générées par l'IA ressemblaient beaucoup à des scènes de nombreux films, déclenchant même des interdictions de compte. Cet incident met en évidence les problèmes de droits d'auteur existant dans la technologie de génération d'images d'IA et attire également l'attention des gens sur la source et la propriété des droits d'auteur des données de formation d'IA. À l'heure actuelle, Midjourney n'a pas répondu à cette question et le différend sur les droits d'auteur continue de fermenter.
L’article se concentre sur :
La dernière version V6 de Midjourney, dont les tests alpha ont commencé le 21 décembre, a suscité des doutes de la part des utilisateurs, qui affirmaient que les images générées violaient prétendument les droits d'auteur. Après que l'artiste l'ait testé en spécifiant des mots-clés, il a constaté que les images générées étaient presque identiques aux scènes de plusieurs films, et il a donc été banni. Les chercheurs en IA ont exprimé leur inquiétude, soulignant que Midjourney aurait pu utiliser des images haute résolution protégées par le droit d'auteur lors de la formation, et la société n'a pas répondu aux accusations liées. Il existe toujours un différend en matière de droits d'auteur et Midjourney n'a fait aucune déclaration à ce sujet.Le différend sur les droits d'auteur concernant la version Midjourney V6 met en garde contre les risques juridiques potentiels dans le domaine de la génération d'images IA et appelle également les entreprises concernées à renforcer l'examen des droits d'auteur des données de formation et à développer un mécanisme de protection des droits d'auteur plus complet. À l’avenir, le développement de la technologie de l’IA devra trouver un équilibre entre innovation et conformité afin de se développer de manière saine et durable.