Recentemente, a equipe de pesquisa do Google anunciou um resultado de pesquisa alarmante: eles atacaram com sucesso o modelo GPT-3.5-turbo da OpenAI a um custo tão baixo quanto 150 yuans. Este método de ataque é simples e eficaz, exigindo menos de 2.000 consultas de API para obter informações importantes do modelo. Esta descoberta destaca que mesmo grandes modelos de linguagem podem enfrentar sérias ameaças à segurança e também nos leva a reexaminar a necessidade e urgência da proteção da segurança da IA. Os resultados da investigação mostram que grandes modelos de linguagem não são indestrutíveis e que os mecanismos de segurança precisam de ser continuamente melhorados para lidar com riscos potenciais.
A pesquisa mais recente do Google revela um método bem-sucedido para atacar o modelo OpenAI GPT-3.5-turbo, com um custo tão baixo quanto 150 yuans. O ataque é simples e eficaz, e informações importantes podem ser obtidas com menos de 2.000 consultas à API. Este experimento lembra que mesmo modelos de linguagem grandes podem enfrentar ameaças à segurança, e a OpenAI tomou medidas para modificar a API do modelo para evitar novos ataques.
A pesquisa do Google soou o alarme para o campo da segurança de IA e também promoveu os esforços de empresas como a OpenAI para fortalecer a segurança do modelo. No futuro, a investigação e o desenvolvimento de medidas de segurança e mecanismos de defesa mais poderosos tornar-se-ão parte integrante do desenvolvimento da IA para garantir a aplicação segura e fiável da tecnologia de IA.