A Automattic anunciou recentemente que está negociando com Midjourney e OpenAI para usar dados pós-treinamento do usuário. A mudança desencadeou discussões generalizadas sobre privacidade e questões éticas no treinamento de dados de IA. A empresa planeia permitir que os utilizadores optem por não partilhar dados, mas resta saber se esta medida abordará eficazmente a privacidade dos dados e as preocupações éticas. O incidente também destaca os desafios e pressões que as empresas de inteligência artificial enfrentam ao usar dados de usuários para treinamento de modelos.
A Automattic está fechando acordos com Midjourney e OpenAI para dados de treinamento em postagens de usuários. O plano da empresa de permitir que os usuários optem por não compartilhar dados com terceiros gerou polêmica sobre parcerias de outras empresas para fornecer dados de treinamento. A tecnologia de IA enfrenta questões éticas e de privacidade na utilização de dados para treinamento.A tecnologia de IA está a desenvolver-se rapidamente, mas as questões éticas e de privacidade envolvidas não podem ser ignoradas. Embora esta medida da Automattic responda até certo ponto às preocupações dos utilizadores sobre a privacidade dos dados, também indica que a indústria de IA enfrentará uma supervisão mais rigorosa e considerações éticas mais complexas na utilização de dados no futuro. Precisamos de um mecanismo mais completo para equilibrar a inovação tecnológica e a proteção dos direitos dos utilizadores.