Das Sora-Videogenerierungsmodell von OpenAI hat große Aufmerksamkeit auf sich gezogen. Seine leistungsstarken Videogenerierungsfunktionen sind erstaunlich, aber seine Trainingsdatenquelle war verwirrend. Dieser Artikel befasst sich mit den möglichen Trainingsdatenquellen von Sora, insbesondere mit der Rolle, die Live-Übertragungen von Spielen und Strategievideos spielen, und analysiert die möglicherweise auftretenden rechtlichen Probleme und die Auswirkungen auf die zukünftige KI-Entwicklung.
Das Videogenerierungsartefakt Sora von OpenAI hat seit seiner Einführung viel Aufmerksamkeit erregt, aber woher es gelernt hat, war immer ein Rätsel. Nun scheint ein Teil des Rätsels gelüftet zu sein: In Soras Trainingsdaten dürften sich zahlreiche Spiel-Liveübertragungen und Strategievideos von Twitch befinden!
Sora ist wie ein geschickter „Meister der Nachahmung“, der in der Lage ist, Videos mit einer Länge von bis zu 20 Sekunden nur mit Textaufforderungen oder Bildern zu erstellen und mehrere Seitenverhältnisse und Auflösungen zu steuern. Als OpenAI im Februar dieses Jahres Sora zum ersten Mal vorstellte, deutete es im Video zu „Minecraft“ an, dass sich sein Modell „auf das Üben konzentriert“. Welche weiteren Spielschätze verbergen sich also neben „Minecraft“ in Soras „Martial Arts Secrets“?
Die Ergebnisse sind überraschend, da Sora mit einer Vielzahl von Spielarten vertraut zu sein scheint. Es kann ein Klonspielvideo mit dem Schatten von „Mario“ erzeugen, obwohl es einige „kleinere Mängel“ gibt; es kann auch einen spannenden Ego-Shooter-Bildschirm simulieren, als ob „Call of Duty“ und „Counter-Strike“ sind „kombiniert“ „; Es kann auch die Kampfszenen des Arcade-Spiels „Teenage Mutant Ninja Turtles“ aus den 1990er Jahren nachbilden und den Menschen das Gefühl geben, in Kindheitserinnerungen einzutauchen.
Noch überraschender ist, dass Sora auch die Form von Twitch-Liveübertragungen gut kennt, was bedeutet, dass sie eine große Menge an Live-Übertragungsinhalten „gesehen“ hat. Die von Sora erstellten Video-Screenshots haben nicht nur die Rahmenstruktur der Live-Übertragung genau erfasst, sondern auch das Bild des bekannten Moderators Auronplay, einschließlich des Tattoos auf seinem linken Arm, anschaulich wiederhergestellt.
Darüber hinaus „kennt“ Sora auch einen anderen Twitch-Moderator, Pokimane, und hat ein Video einer Figur erstellt, die ihr ähnlich sieht. Um Urheberrechtsprobleme zu vermeiden, hat OpenAI natürlich einen Filtermechanismus eingerichtet, um zu verhindern, dass Sora Videos mit markenrechtlich geschützten Charakteren generiert.
Auch wenn OpenAI keine Angaben zur Quelle seiner Trainingsdaten macht, gibt es Hinweise darauf, dass Spielinhalte höchstwahrscheinlich im Trainingssatz von Sora enthalten sind. In einem Interview mit dem Wall Street Journal im März bestritt Mira Mulati, ehemalige CTO von OpenAI, nicht direkt, dass Sora Inhalte von YouTube, Instagram und Facebook für das Training verwendet habe. OpenAI gibt in den technischen Spezifikationen von Sora außerdem zu, dass es „öffentlich verfügbare“ Daten sowie lizenzierte Daten von Medienbibliotheken wie Shutterstock verwendet.
Wenn tatsächlich Spielinhalte zum Trainieren von Sora verwendet werden, könnte dies eine Reihe rechtlicher Probleme auslösen, insbesondere wenn OpenAI ein interaktiveres Erlebnis auf Basis von Sora entwickelt. Der Anwalt für geistiges Eigentum von Pryor Cashman, Joshua Weigensberg, wies darauf hin, dass die unbefugte Verwendung von Spielvideos für das KI-Training mit großen Risiken verbunden ist, da das Training von KI-Modellen normalerweise das Kopieren von Trainingsdaten erfordert und Spielvideos eine große Menge urheberrechtlich geschützter Inhalte enthalten.
Generative KI-Modelle wie Sora basieren auf Wahrscheinlichkeit. Sie lernen Muster aus großen Datenmengen und treffen Vorhersagen. Diese Fähigkeit ermöglicht es ihnen zu „lernen“, wie die Welt funktioniert. Es gibt jedoch auch versteckte Gefahren. Bei bestimmten Eingabeaufforderungen kann das Modell Inhalte generieren, die seinen Trainingsdaten sehr ähnlich sind. Dies führte zu großer Unzufriedenheit bei den Urhebern, die glaubten, dass ihre Werke ohne Erlaubnis für Schulungen verwendet würden.
Derzeit werden Microsoft und OpenAI verklagt, weil ihre KI-Tools angeblich lizenzierten Code kopieren. Unternehmen für KI-Kunstanwendungen wie Midjourney, Runway und Stability AI wurden ebenfalls beschuldigt, die Rechte von Künstlern verletzt zu haben. Große Musikunternehmen haben auch Klagen gegen Udio und Suno eingereicht, Startups, die KI-Songgeneratoren entwickeln.
Viele KI-Unternehmen plädieren seit langem für „Fair Use“-Prinzipien und argumentieren, dass ihre Modelle eher „transformative“ Werke als Plagiate schaffen. Aber der Spielinhalt hat seine eigenen Besonderheiten. Evan Everest, Urheberrechtsanwalt bei Dorsey & Whitney, wies darauf hin, dass Gaming-Videos mindestens zwei Ebenen des Urheberrechtsschutzes beinhalten: das Urheberrecht des Spielinhalts, der dem Spieleentwickler gehört, und das Urheberrecht des einzigartigen Videos, das vom Spieler oder Video erstellt wurde Produzent. Für einige Spiele kann es auch eine dritte Ebene von Rechten geben, nämlich das Urheberrecht an nutzergenerierten Inhalten.
Fortnite ermöglicht es Spielern beispielsweise, ihre eigenen Spielkarten zu erstellen und diese mit anderen zu teilen. An einem Gaming-Video über diese Karten sind mindestens drei Urheberrechtsinhaber beteiligt: Epic, Gamer und Kartenersteller. Wenn das Gericht feststellt, dass die Schulung von KI-Modellen eine Urheberrechtshaftung mit sich bringt, können diese Urheberrechtsinhaber zu potenziellen Klägern oder autorisierten Quellen werden.
Darüber hinaus wies Weigensberg auch darauf hin, dass das Spiel selbst auch viele „schützbare“ Elemente wie proprietäre Texturen aufweist, die Richter bei Rechtsstreitigkeiten über geistiges Eigentum berücksichtigen könnten.
Derzeit haben sich mehrere Spielestudios und Herausgeber, darunter Epic, Microsoft (dem Minecraft gehört), Ubisoft, Nintendo, Roblox und der Cyberpunk 2077-Entwickler CD Projekt Red, nicht zu der Angelegenheit geäußert.
Auch wenn KI-Unternehmen diese Rechtsstreitigkeiten gewinnen, sind Nutzer möglicherweise nicht von der Haftung befreit. Wenn ein generatives Modell ein urheberrechtlich geschütztes Werk kopiert, kann die Person, die das Werk veröffentlicht oder in andere Projekte einbaut, dennoch für die Verletzung geistigen Eigentums haftbar gemacht werden.
Einige KI-Unternehmen verfügen über Entschädigungsklauseln, um mit solchen Situationen umzugehen, es gibt jedoch in der Regel Ausnahmen. Beispielsweise gelten die Bedingungen von OpenAI nur für Unternehmenskunden, nicht für einzelne Benutzer. Darüber hinaus bestehen neben Urheberrechtsrisiken auch Risiken wie Markenrechtsverletzungen. Beispielsweise können die ausgegebenen Inhalte Vermögenswerte enthalten, die für Marketing und Branding verwendet werden, einschließlich In-Game-Charakteren.
Mit zunehmendem Interesse an Weltmodellen könnte die Situation komplexer werden. Eine Anwendung von Weltmodellen besteht darin, reale Videospiele zu generieren, was zu rechtlichen Problemen führen kann, wenn diese „synthetischen“ Spiele dem, worauf das Modell trainiert wurde, zu ähnlich sind.
Avery Williams, Anwalt für geistiges Eigentum bei McKool Smith, wies darauf hin, dass Elemente wie Stimmen, Bewegungen, Charaktere, Lieder, Dialoge und Kunstwerke, die zum Trainieren der KI-Plattform in Spielen verwendet werden, eine Urheberrechtsverletzung darstellen. Fragen zur „fairen Nutzung“, die in zahlreichen Klagen gegen generative KI-Unternehmen aufgeworfen werden, werden die gleichen Auswirkungen auf die Videospielbranche haben wie auf andere kreative Märkte.
Der Erfolg von Sora unterstreicht auch das enorme Potenzial der generativen KI-Technologie im Bereich der Inhaltserstellung, zeigt aber auch ihre enormen Herausforderungen bei der Datennutzung und den Rechten an geistigem Eigentum auf. Die Frage, wie technologische Innovation und der Schutz geistigen Eigentums in Einklang gebracht werden können, wird eine zentrale Frage sein, die bei der künftigen Entwicklung der KI gelöst werden muss. Zukünftig werden die Quelle der Trainingsdaten für KI-Modelle und deren Rechtmäßigkeit einer strengeren Prüfung unterzogen, was tiefgreifende Auswirkungen auf die zukünftige Entwicklung der KI-Branche haben wird.