Em resposta às próximas eleições presidenciais dos EUA em 2024, a plataforma de mídia social X de Musk (anteriormente Twitter) fez uma série de ajustes em sua ferramenta de IA Grok para lidar com possíveis desinformação e interferência eleitoral. Esta medida decorre da desinformação que Grok tinha espalhado anteriormente, o que causou preocupações entre muitos secretários de estado dos EUA. Eles escreveram a Musk, solicitando que Grok fosse melhorado para garantir a precisão das informações. Este artigo fornecerá uma análise aprofundada das medidas tomadas pela plataforma X para lidar com a interferência eleitoral, bem como a controvérsia resultante e os desenvolvimentos subsequentes.
Recentemente, a plataforma de mídia social X de Musk (antigo Twitter) fez uma mudança importante para combater o caos informativo durante as próximas eleições presidenciais de 2024. Vários secretários de estado dos EUA, incluindo os de Minnesota, Michigan, Novo México, Pensilvânia e estado de Washington, fizeram pedidos a Musk para atualizar o Grok AI para evitar a propagação de desinformação sobre a eleição.
Os secretários de estado disseram em comunicado à imprensa esta semana que responda você mesmo. A medida foi endossada pelos responsáveis, que afirmaram: “Agradecemos a iniciativa da Plataforma X e esperamos que continuem a melhorar para garantir que os utilizadores obtenham informações precisas de fontes confiáveis”.
O incidente começou quando Grok AI alegou falsamente que os prazos de votação em nove estados haviam passado depois que o presidente dos EUA, Joe Biden, anunciou que estava se retirando da disputa, impedindo o Partido Democrata de substituir seu candidato. A desinformação foi amplamente partilhada nas plataformas sociais e teve um impacto generalizado, levando os secretários de Estado a expressar preocupação e a escrever a Musk no início de agosto, salientando a questão.
Embora Grok não tenha seguido totalmente o conselho deles, foi um progresso ver Musk recuar. Os secretários de estado enfatizaram ainda que as regras e procedimentos eleitorais variam amplamente de estado para estado e que os eleitores devem obter informações relevantes dos funcionários eleitorais locais e que websites como vote.gov e CanIVote.org são recursos confiáveis.
Musk tem enfrentado pressão crescente recentemente, já que as informações que ele postou na plataforma X foram vistas como uma interferência que poderia influenciar a eleição. Desde que Musk assumiu o X, a desinformação e o discurso de ódio floresceram na plataforma, fazendo com que os anunciantes fugissem. À medida que se aproximam as eleições presidenciais de 2024, o governo dos EUA está confiante na segurança da tecnologia eleitoral, mas informações falsas ainda se tornaram o foco dos funcionários do governo.
Além disso, alguns legisladores democratas também solicitaram que a Comissão Eleitoral Federal (FEC) investigasse as imagens falsas geradas por Grok para determinar se constituem fraude responsável. O representante Shawntel Brown, de Ohio, disse que X e Musk têm a responsabilidade de regular o uso de sua tecnologia de IA, caso contrário, a FEC deve tomar medidas de emergência para evitar novas fraudes eleitorais.
Destaque:
?A plataforma X ajusta a Grok AI para conter a disseminação de informações falsas durante as eleições de 2024.
?️ Vários secretários de estado expressaram preocupação com a desinformação de Grok e pediram que os usuários fossem direcionados para informações eleitorais precisas.
? Musk enfrenta pressão crescente para assumir a responsabilidade por informações falsas na plataforma.
Em suma, o ajuste da Grok AI pela X Platform é uma tentativa positiva de lidar com a disseminação de informações falsas durante as eleições presidenciais dos EUA de 2024, mas também expõe os enormes desafios enfrentados pelas plataformas de mídia social na supervisão de informações. Musk e a sua plataforma continuarão a enfrentar pressão do governo e do público. Como controlar eficazmente a propagação de informações falsas será a chave para o desenvolvimento saudável da plataforma no futuro.