O rápido desenvolvimento da tecnologia de inteligência artificial trouxe oportunidades sem precedentes para as empresas, mas também trouxe novos riscos e desafios. A ascensão da IA generativa atraiu atenção especial aos seus possíveis riscos de segurança. Este artigo analisará os mais recentes relatórios de risco divulgados para explorar as dificuldades enfrentadas pelas empresas ao lidar com riscos generativos de IA e como tomar medidas eficazes para garantir sua própria segurança e conformidade.
Nos últimos anos, o rápido desenvolvimento da inteligência artificial (IA) trouxe muitas oportunidades para empresas, mas, ao mesmo tempo, suas ameaças em potencial estão se tornando cada vez mais aparentes. De acordo com o mais recente "Relatório de Risco de Nova Geração", a pesquisa mostra que até 80% das empresas pesquisadas ainda não formularam planos de resposta especiais para riscos generativos de IA, incluindo riscos de segurança, como fraude online orientada a IA.
A pesquisa foi realizada pela Risk Connect, uma empresa de software de gerenciamento de riscos, e os entrevistados incluíram 218 profissionais de conformidade e resiliência globais de risco. Os resultados mostram que 24% dos entrevistados acreditam que ameaças de segurança cibernética orientadas pela IA, como ransomware, phishing e profunda falsificação, terão um impacto significativo nas empresas nos próximos 12 meses. Enquanto isso, 72% dos entrevistados disseram que os riscos de segurança cibernética tiveram um impacto significativo ou grave em suas organizações, um aumento de 47% dos dados do ano passado.
À medida que as preocupações com a ética da IA, a privacidade e a segurança se intensificam, o relatório apontou que, embora as preocupações das empresas sobre a IA tenham aumentado, elas não conseguiram acompanhar o tempo nas estratégias de gerenciamento de riscos e ainda existem muitas lacunas importantes. Por exemplo, 65% das empresas não possuem políticas para o uso de IA generativa em parceiros e fornecedores, embora terceiros sejam canais comuns de intrusão para golpistas cibernéticos.
Ameaças internas não devem ser subestimadas. Tomando o exemplo do uso da IA generativa para produzir conteúdo de marketing, o especialista em marketing Anthony Miyazaki lembra que, embora a IA generativa tenha um bom desempenho ao escrever textos, a cópia final ainda precisa ser editada manualmente para garantir sua persuasão e precisão. Além disso, confiar na IA para gerar o conteúdo do site também pode levar a efeitos negativos. Otimização do motor (SEO).
Para enfrentar esses desafios, as empresas precisam garantir a cobertura total das políticas internas, garantir a segurança de dados confidenciais e cumprir os regulamentos relevantes. John Skimoni, diretor de segurança da Del Technology, disse que formulou princípios antes do boom generativo da IA para garantir que os aplicativos de IA sejam justos, transparentes e responsáveis.
Na Empathy First Media, o vice-presidente Ryan Doser também enfatizou as medidas estritas tomadas pela empresa para usar a IA pelos funcionários, incluindo a proibição da contribuição de dados sensíveis ao cliente em ferramentas generativas de IA, exigindo revisão manual do conteúdo gerado pela IA etc. Essas medidas são projetadas para aumentar a transparência e criar confiança do cliente.
Pontos -chave:
80% das empresas não desenvolveram planos especializados para riscos generativos de IA e enfrentam riscos potenciais de segurança.
72% das empresas acreditam que os riscos de segurança cibernética tiveram um impacto significativo nelas e exigem um melhor gerenciamento de riscos.
As empresas devem tomar medidas positivas para garantir a segurança e a conformidade dos aplicativos de IA e evitar ameaças internas e externas.
Para resumir, as empresas precisam responder ativamente aos riscos de segurança trazidos pela IA generativa, formular estratégias completas de gerenciamento de riscos e fortalecer os controles de segurança interna, a fim de manter a competitividade na era da IA e continuar a se desenvolver de maneira saudável. Ignorar os riscos de IA provavelmente levará a graves acidentes de segurança e perdas econômicas.