Zuletzt machte das große Modellprojekt „Seed Project“ von ByteDance auf sich aufmerksam, weil es angeblich gegen die Nutzungsbedingungen von OpenAI verstoßen habe. Ausländischen Medienberichten zufolge wurden in der frühen Entwicklung des Projekts GPT-Modelldaten verwendet, und OpenAI hat Byte-bezogene Konten gesperrt. ByteDance antwortete, dass es aktiv kommuniziere und bestritt, dass es Verstöße gegeben habe. Dieser Vorfall verdeutlichte die Unklarheit und Kontroverse der Datennutzungsregeln und -überwachung im Bereich großer Modelle und löste in der Branche auch tiefgreifende Überlegungen zu Datensicherheit und Schutz geistigen Eigentums aus.
Der Artikel konzentriert sich auf:
Ausländische Medien enthüllten, dass ByteDances großes Modellprojekt „Seed Plan“ in der frühen Entwicklung GPT-Modelldaten verwendete und damit gegen die Nutzungsbedingungen von OpenAI verstieß. OpenAI erklärte daraufhin, dass es Byte-bezogene Konten gesperrt habe. ByteDance bestritt jegliche Verstöße und sagte, dass man aktiv mit OpenAI kommuniziere, um Missverständnisse aufzuklären. Der Vorfall spiegelt wider, dass die Regeln und die Überwachung der Verwendung von Trainingsdaten im Bereich großer Modelle immer noch umstritten sind.
Dieser Vorfall hatte nicht nur Auswirkungen auf ByteDance selbst, sondern löste auch bei anderen großen Modell-Forschungs- und Entwicklungsunternehmen Alarm aus und erinnerte sie daran, dass sie bei der Entwicklung von Technologie der Datenkonformität große Bedeutung beimessen müssen mit ethischen Normen sowie Gesetzen und Vorschriften, um eine gesunde und nachhaltige Entwicklung der Branche der künstlichen Intelligenz zu fördern. In Zukunft wird die Verbesserung der Datennutzungsregeln und Überwachungsmechanismen im Bereich großer Modelle von entscheidender Bedeutung sein.