Recentemente, o grande projeto modelo “Seed Project” da ByteDance atraiu a atenção por supostamente violar os termos de serviço da OpenAI. De acordo com relatos da mídia estrangeira, os dados do modelo GPT foram usados no desenvolvimento inicial do projeto, e a OpenAI suspendeu as contas relacionadas ao Byte. A ByteDance respondeu dizendo que estava se comunicando ativamente e negou que houvesse qualquer violação. Este incidente destacou a ambiguidade e a controvérsia das regras e supervisão de utilização de dados no domínio dos grandes modelos, e também desencadeou uma reflexão aprofundada na indústria sobre segurança de dados e protecção da propriedade intelectual.
O artigo se concentra em:
A mídia estrangeira revelou que o grande projeto modelo “Seed Plan” da ByteDance usou dados do modelo GPT no desenvolvimento inicial, violando os termos de serviço da OpenAI. A OpenAI posteriormente declarou que havia suspendido contas relacionadas ao Byte. A ByteDance negou qualquer violação e disse que estava se comunicando ativamente com a OpenAI para esclarecer mal-entendidos. O incidente reflete que as regras e a supervisão do uso de dados de treinamento na área de grandes modelos ainda são controversas.
Este incidente não só teve impacto na própria ByteDance, mas também soou o alarme para outras grandes empresas de P&D, lembrando-as de que precisam dar grande importância às questões de conformidade de dados. Ao desenvolver tecnologia, elas também deveriam prestar mais atenção à conformidade. com normas éticas, leis e regulamentos, a fim de promover o desenvolvimento saudável e sustentável da indústria de inteligência artificial. No futuro, a melhoria das regras de utilização de dados e dos mecanismos de supervisão no domínio dos grandes modelos será crucial.