O Comitê Especial do Senado Australiano divulgou recentemente um relatório acusando Amazon, Google e Meta de serem ambíguos ao usar dados australianos para treinar produtos de IA, o que atraiu atenção generalizada. No relatório, o senador Sheldon criticou severamente esses gigantes da tecnologia por serem evasivos durante a audiência e como “piratas” saqueando a cultura, os dados e a criatividade da Austrália. O editor do Downcodes explicará este relatório em detalhes e seu impacto nas políticas regulatórias de IA e nas indústrias criativas da Austrália.
Recentemente, o relatório de investigação do Comité Especial do Senado Australiano revelou que as empresas tecnológicas Amazon, Google e Meta (anteriormente Facebook) têm atitudes decepcionantemente ambíguas quando utilizam dados australianos para treinar os seus produtos de inteligência artificial.
Nota sobre a fonte da imagem: a imagem é gerada pela IA e pelo provedor de serviços de autorização de imagem Midjourney
O presidente da investigação, o senador trabalhista Tony Sheldon, manifestou forte insatisfação com isto, acreditando que estas empresas multinacionais continuaram a evitar perguntas diretas durante a audiência, como se estivessem a realizar um espectáculo de magia barato, e no final não fizeram nada.
Sheldon disse após a divulgação do relatório que essas empresas de tecnologia são como "piratas", saqueando a cultura, os dados e a criatividade da Austrália e, em última análise, deixando os australianos de mãos vazias. Ele ressaltou que a Amazon se recusou a divulgar como usa os dados coletados pelos dispositivos Alexa, Kindle e Audible para treinar IA, enquanto o Google também não explicou como usa os dados do usuário para desenvolver produtos de IA. Embora a Meta tenha reconhecido que extraía dados de utilizadores australianos do Facebook e Instagram para utilização em futuros modelos de IA desde 2007, não foi capaz de explicar como é que os utilizadores em 2007 consentiram que os dados fossem utilizados para fins que ainda não existiam.
O relatório também destaca que os trabalhadores criativos enfrentam o risco de a inteligência artificial afetar gravemente os seus meios de subsistência. Recomenda o estabelecimento de mecanismos de pagamento para compensar os trabalhadores criativos quando o trabalho gerado pela IA se baseia em material original. Além disso, as empresas que desenvolvem modelos de IA precisam de ser transparentes sobre as origens das obras protegidas por direitos de autor utilizadas nos seus conjuntos de dados, e todas as obras reivindicadas devem ser licenciadas e pagas em conformidade.
Uma das 13 recomendações do relatório apela à introdução de legislação independente sobre inteligência artificial, visando especificamente modelos de IA considerados de “alto risco”. As aplicações de IA que envolvem direitos humanos devem ser consideradas de alto risco e requerem consulta, colaboração e representação antes da implementação.
No entanto, dois senadores da Coligação no comité disseram que a IA representa uma ameaça muito maior à segurança cibernética, à segurança nacional e às instituições democráticas da Austrália do que o seu impacto na economia criativa. Eles acreditam que devem ser estabelecidos mecanismos para proteger as oportunidades potenciais trazidas pela IA, em vez de suprimi-las.
O relatório também desencadeou novas discussões sobre as políticas regulamentares de IA da Austrália. Muitas pessoas apelaram à consistência com as medidas regulamentares no Reino Unido, Europa, Califórnia e outras regiões para lidar com os desafios do rápido desenvolvimento da tecnologia de inteligência artificial.
Este relatório não só revela a opacidade da utilização de dados pelos gigantes da tecnologia, mas também desencadeia uma reflexão aprofundada sobre a ética e a supervisão da inteligência artificial. O caminho para a regulamentação da IA na Austrália tem um longo caminho a percorrer e requer os esforços conjuntos do governo, das empresas e do público para encontrar o melhor caminho entre a inovação e o risco. O editor do Downcodes continuará atento ao desenvolvimento do incidente.