Récemment, le grand projet modèle de ByteDance, « Seed Project », a attiré l'attention pour avoir prétendument violé les conditions de service d'OpenAI. Selon les médias étrangers, les données du modèle GPT ont été utilisées au début du développement du projet et OpenAI a suspendu les comptes liés à Byte. ByteDance a répondu en disant qu'il communiquait activement et a nié toute violation. Cet incident a mis en lumière l'ambiguïté et la controverse des règles d'utilisation et de supervision des données dans le domaine des grands modèles, et a également déclenché une réflexion approfondie dans l'industrie sur la sécurité des données et la protection de la propriété intellectuelle.
L’article se concentre sur :
Les médias étrangers ont révélé que le grand projet de modèle de ByteDance, « Seed Plan », utilisait les données du modèle GPT au début de son développement, violant ainsi les conditions de service d'OpenAI. OpenAI a ensuite déclaré avoir suspendu les comptes liés à Byte. ByteDance a nié toute violation et a déclaré qu'elle communiquait activement avec OpenAI pour clarifier les malentendus. L'incident montre que les règles et le contrôle de l'utilisation des données de formation dans le domaine des grands modèles sont toujours controversés.
Cet incident a non seulement eu un impact sur ByteDance lui-même, mais a également sonné l'alarme pour d'autres grandes entreprises de R&D, leur rappelant qu'elles doivent attacher une grande importance aux problèmes de conformité des données. Lors du développement de la technologie, elles devraient également accorder plus d'attention à la conformité. avec des normes éthiques, des lois et des réglementations afin de promouvoir un développement sain et durable de l'industrie de l'intelligence artificielle. À l’avenir, l’amélioration des règles d’utilisation des données et des mécanismes de supervision dans le domaine des grands modèles sera cruciale.