Recentemente, o editor do Downcodes soube que um grupo de artistas que participaram do teste do novo modelo de IA de texto para vídeo da OpenAI, Sora, expressou publicamente seu protesto e vazou direitos de acesso antecipado ao modelo porque estavam insatisfeitos com o método de cooperação da OpenAI. Eles acreditam que a OpenAI usa artistas para pesquisa e desenvolvimento gratuitos e relações públicas, tratando os artistas apenas como "testadores de bugs gratuitos, ferramentas de publicidade, dados de treinamento ou tokens de verificação", o que desencadeou uma preocupação generalizada na indústria sobre os direitos dos artistas no desenvolvimento de IA modelos.
Os artistas publicaram uma carta aberta na plataforma Hugging Face detalhando sua insatisfação, apontando que a OpenAI só fornece “credibilidade artística” sem recompensas materiais correspondentes, bem como restrições estritas aos requisitos de revisão de conteúdo de Sora. A OpenAI respondeu que a participação no teste é voluntária e prometeu continuar apoiando os artistas participantes. No entanto, este incidente também desencadeou a reflexão das pessoas sobre a ética e os modelos de negócio no desenvolvimento de modelos de IA, bem como discussões sobre como proteger melhor os direitos dos artistas.
Os artistas não se opõem à aplicação da tecnologia de IA à criação artística, mas condenam veementemente a utilização do seu programa de acesso antecipado pela OpenAI para explorar o trabalho dos artistas. Eles acreditam que a OpenAI deve dar aos artistas uma remuneração justa e respeito, em vez de tratá-los como meras ferramentas para atingir os objetivos da empresa.
Na carta aberta, os artistas disseram: "Caros Enterprise AI Lords, Quando tivemos acesso ao Sora, prometemos que seríamos os primeiros testadores e parceiros criativos. No entanto, acreditamos que fomos simplesmente atraídos para uma 'arte'". de branquear e promover Sora." Eles enfatizaram que o artista não é o "testador de bugs gratuito, ferramenta promocional, dados de treinamento ou token de verificação" da empresa.
Estes artistas não se opõem à utilização da tecnologia de IA como ferramenta para a criação artística, mas estão insatisfeitos com o programa de acesso antecipado da OpenAI, que acreditam explorar a criatividade dos artistas para trabalho não remunerado.
Eles criticaram a OpenAI por lhes fornecer “crédito artístico” em projetos sem retribuir o trabalho. Em particular, eles se opuseram aos requisitos de moderação da OpenAI para o conteúdo de Sora, dizendo que cada conteúdo gerado precisava ser aprovado pela equipe da OpenAI antes de poder ser compartilhado.
Contactada pela mídia, a OpenAI não confirmou a autenticidade do vazamento do Sora, mas enfatizou que os artistas participantes da “prévia da pesquisa” eram voluntários e não eram obrigados a fornecer feedback ou usar a ferramenta. Um porta-voz da OpenAI disse: “Sora ainda está em fase de pesquisa e estamos trabalhando duro para equilibrar a criatividade com medidas de segurança. A participação de centenas de artistas nos ajuda a priorizar novos recursos e salvaguardas. a empresa por meio de bolsas, eventos e Apoiar os artistas participantes de outras formas.
Anteriormente, Mira Murati, ex-diretora de tecnologia da OpenAI, disse que o Sora deverá ser lançado antes do final do ano, mas não lançará nada que não esteja confiante no impacto do modelo.
Em uma recente sessão de perguntas e respostas no Reddit, o diretor de produtos Kevin Weil mencionou que o motivo pelo qual Sora ainda não foi lançado é a necessidade de expandir suas capacidades e garantir a segurança e evitar problemas com impostores.
Este incidente destaca mais uma vez a importância da ética e da moralidade no desenvolvimento da inteligência artificial, e também nos lembra de prestar atenção ao cuidado humanístico por trás do progresso tecnológico. Como equilibrar a inovação tecnológica e os direitos dos artistas será uma questão que necessita de séria consideração no futuro desenvolvimento da IA. O editor do Downcodes continuará atento ao desenvolvimento subsequente do incidente.