Recentemente, uma investigação do The Guardian revelou potenciais riscos de segurança na ferramenta de pesquisa ChatGPT da OpenAI. As investigações mostraram que o ChatGPT é suscetível a códigos maliciosos ou instruções de manipulação ocultas em páginas da web, dando respostas imprecisas ou mesmo prejudiciais, como ser manipulado para fornecer avaliações excessivamente positivas de um produto, mesmo que haja avaliações negativas para o produto. A investigação levantou preocupações sobre a segurança de grandes modelos de linguagem e destacou a importância crítica da segurança no desenvolvimento da tecnologia de IA.
Recentemente, uma investigação do “Guardian” britânico revelou possíveis riscos de segurança na ferramenta de busca ChatGPT da OpenAI. A investigação descobriu que o ChatGPT pode ser manipulado ou até mesmo retornar código malicioso ao processar trechos de páginas da web contendo conteúdo oculto. Esse conteúdo oculto pode incluir instruções de terceiros projetadas para interferir na resposta do ChatGPT ou uma grande quantidade de texto oculto promovendo um determinado produto ou serviço.
Durante o teste, o ChatGPT recebeu um link para uma página falsa de produto de câmera e foi solicitado a avaliar se valia a pena comprar a câmera. Em uma página normal, o ChatGPT consegue apontar os prós e os contras de um produto de forma equilibrada. No entanto, quando o texto oculto na página continha instruções solicitando uma avaliação positiva, as respostas do ChatGPT tornaram-se totalmente positivas, embora houvesse avaliações negativas na página. Além disso, mesmo sem instruções explícitas, um simples texto oculto pode influenciar os resultados resumidos do ChatGPT, fazendo com que ele tenda a fornecer avaliações positivas.
Jacob Larsen, especialista em segurança cibernética da CyberCX, alertou que se o sistema de busca do ChatGPT for totalmente lançado em seu estado atual, poderá enfrentar um “alto risco” de que alguém crie um site especificamente para enganar os usuários. No entanto, ele também destacou que a OpenAI tem uma forte equipe de segurança de IA e espera-se que eles tenham testado e corrigido rigorosamente esses problemas quando o recurso estiver aberto a todos os usuários.
Mecanismos de busca como o Google penalizaram sites por usarem texto oculto, fazendo com que fossem rebaixados nas classificações ou até mesmo removidos por completo. Karsten Nohl, cientista-chefe do SR Labs, apontou que o envenenamento por SEO é um desafio para qualquer mecanismo de busca, e o ChatGPT não é exceção. No entanto, isto não é um problema com o grande modelo de linguagem em si, mas um desafio enfrentado pelos novos participantes no campo de pesquisa.
Destaque:
ChatGPT pode ser manipulado por conteúdo oculto e retornar avaliações falsas.
O texto oculto pode afetar a avaliação do ChatGPT, mesmo que a página tenha avaliações negativas.
A OpenAI está corrigindo ativamente possíveis problemas para melhorar a segurança da ferramenta de pesquisa.
Embora o ChatGPT enfrente novos desafios, como o envenenamento por SEO, isso não significa que a própria tecnologia do modelo de linguagem em larga escala seja defeituosa. A OpenAI está ciente desses problemas e está tomando medidas ativamente para resolvê-los. No futuro, à medida que a tecnologia continua a desenvolver-se e a melhorar, espera-se que a segurança dos grandes modelos linguísticos seja ainda melhorada, proporcionando aos utilizadores serviços mais fiáveis.