O editor do Downcodes soube que a Microsoft lançou recentemente um white paper para investigar o uso malicioso de IA generativa. O relatório revela que a IA é utilizada em actividades criminosas graves, como fraude, produção de materiais de abuso sexual infantil, manipulação de eleições e produção de imagens privadas involuntárias, sublinhando que estes problemas não são apenas desafios técnicos, mas também representam uma grande ameaça para a sociedade. A Microsoft apela à cooperação global para lidar conjuntamente com os riscos trazidos pela IA.
A Microsoft lançou recentemente um white paper que fornece uma análise aprofundada do uso malicioso de inteligência artificial generativa (IA), incluindo fraude, material de abuso sexual infantil, manipulação eleitoral e imagens privadas não consensuais. A empresa enfatizou que esses problemas não são apenas desafios técnicos, mas também uma grande ameaça à sociedade.
De acordo com um white paper da Microsoft, os criminosos estão cada vez mais aproveitando o poder da IA generativa para cometer crimes nefastos. Estas incluem a utilização de desinformação gerada pela IA para fraudar, a criação de material de abuso sexual infantil, a manipulação eleitoral através de tecnologia deepfake e a criação de imagens íntimas não consensuais que visam particularmente as mulheres. “Nunca devemos esquecer que o uso indevido da IA tem consequências profundas para pessoas reais”, disse Hugh Millward, vice-presidente de assuntos externos da Microsoft.
Destinado especificamente aos decisores políticos do Reino Unido, o livro branco propõe um conjunto abrangente de soluções baseadas em seis elementos principais para resolver as questões acima referidas. Os seis elementos incluem: uma forte arquitectura de segurança, fontes permanentes de meios de comunicação e ferramentas de marcas de água, leis modernizadas para proteger o público, forte colaboração entre a indústria e o governo e a sociedade civil, protecção contra a utilização indevida de serviços e educação pública.
Em recomendações específicas para os legisladores do Reino Unido, a Microsoft pede que os fornecedores de sistemas de IA sejam obrigados a informar os utilizadores de que o conteúdo é gerado pela IA quando os utilizadores interagem com os sistemas de IA. Além disso, a Microsoft recomenda a implementação de ferramentas avançadas de etiquetagem na origem para sinalizar conteúdo sintético, e os governos também devem dar o exemplo, realizando a verificação da autenticidade do seu conteúdo multimédia. A Microsoft também enfatizou que são necessárias novas leis para proibir a fraude através de ferramentas de IA para proteger a integridade das eleições. Ao mesmo tempo, o quadro jurídico para proteger as crianças e as mulheres da exploração online também deve ser reforçado, nomeadamente através da criminalização da produção de deepfakes sexuais.
A Microsoft também destacou que é importante armazenar tecnologia de metadados que indique se a mídia foi gerada por IA. Projetos semelhantes já estão em andamento por empresas como a Adobe que visam ajudar as pessoas a identificar a origem das imagens. No entanto, a Microsoft acredita que padrões como Credenciais de Conteúdo exigem medidas políticas e conscientização pública para serem eficazes.
Além disso, a Microsoft está trabalhando com organizações como StopNCII.org para desenvolver ferramentas para detectar e remover imagens abusivas. As vítimas podem recorrer através do portal central de denúncias da Microsoft. Para os jovens, é fornecido apoio adicional através do serviço Take It Down, prestado pelo Centro Nacional para Crianças Desaparecidas e Exploradas. Millward afirmou: "O uso indevido da IA será provavelmente um problema a longo prazo, por isso precisamos de redobrar os nossos esforços e trabalhar de forma criativa com empresas tecnológicas, parceiros de caridade, sociedade civil e governos para resolver este problema. Não podemos fazê-lo sozinhos". "
Este white paper da Microsoft fornece uma referência valiosa para lidar com aplicações maliciosas de IA generativa, enfatiza a importância da cooperação técnica, jurídica e social e fornece uma orientação importante para a futura governança da IA. Só unindo forças com múltiplas partes poderemos lidar eficazmente com os riscos trazidos pela IA e garantir a segurança social e a estabilidade.