Nos últimos anos, a tecnologia de inteligência artificial (IA) desenvolveu-se rapidamente, trazendo enormes oportunidades para as empresas, mas também escondendo muitos riscos. O editor do Downcodes compilou um relatório sobre como as empresas devem lidar com os riscos de IA generativa. O relatório apontou que a maioria das empresas ainda não formulou estratégias de resposta eficazes para riscos de IA generativa, especialmente em termos de segurança de rede, fraude de rede impulsionada por IA, etc. A ameaça está a tornar-se cada vez mais grave e merece a atenção das empresas.
Nos últimos anos, o rápido desenvolvimento da inteligência artificial (IA) trouxe muitas oportunidades às empresas, mas, ao mesmo tempo, as suas ameaças potenciais tornaram-se cada vez mais evidentes. De acordo com o último “Relatório de Riscos de Nova Geração” de 2024, a pesquisa mostra que até 80% das empresas pesquisadas ainda não formularam um plano de resposta especial para riscos generativos de IA, que inclui riscos de segurança, como fraudes online impulsionadas por IA.
A pesquisa, realizada pela empresa de software de gestão de risco Riskconnect, incluiu 218 profissionais globais de conformidade e resiliência de risco. Os resultados mostram que 24% dos entrevistados acreditam que as ameaças à cibersegurança impulsionadas pela IA (como ransomware, phishing e deepfakes) terão um impacto significativo nas empresas nos próximos 12 meses. Entretanto, 72% dos inquiridos afirmaram que os riscos de segurança cibernética tiveram um impacto significativo ou grave nas suas organizações, acima dos 47% do ano passado.
À medida que se intensificam as preocupações com questões como a ética, a privacidade e a segurança da IA, o relatório salienta que, embora as preocupações das empresas com a IA tenham aumentado, não conseguiram acompanhar as estratégias de gestão de riscos em tempo útil e ainda existem muitas lacunas importantes. . Por exemplo, 65% das empresas não têm nenhuma política em vigor relativamente à utilização de IA generativa por parceiros e fornecedores, embora terceiros sejam um canal de entrada comum para fraudadores cibernéticos.
As ameaças internas também não podem ser subestimadas. Tomando como exemplo o uso de IA generativa pelas empresas para produzir conteúdo de marketing, o especialista em marketing Anthony Miyazaki lembrou que, embora a IA generativa seja excelente na escrita de texto, a cópia final ainda precisa ser editada manualmente para garantir sua persuasão e precisão. Além disso, depender da IA para gerar conteúdo do site também pode levar a impactos negativos. Por exemplo, o Google deixou claro que se o conteúdo da IA for usado para manipular o processo de pesquisa, suas classificações de pesquisa serão reduzidas, o que terá um sério impacto. na otimização de mecanismos de busca (SEO) de empresas.
Para enfrentar estes desafios, as empresas precisam de garantir uma cobertura abrangente das políticas internas, proteger dados sensíveis e cumprir os regulamentos relevantes. John Skimoni, diretor de segurança da Del Technology, disse que eles formularam princípios relevantes antes da mania da IA generativa para garantir que o desenvolvimento de aplicações de IA seja justo, transparente e responsável.
Na agência de marketing digital Empathy First Media, o vice-presidente Ryan Doser também enfatizou as medidas rigorosas que a empresa tomou sobre o uso de IA pelos funcionários, incluindo a proibição da entrada de dados confidenciais de clientes em ferramentas generativas de IA e a exigência de revisão manual do conteúdo gerado por IA. Essas medidas foram projetadas para aumentar a transparência e construir a confiança do cliente.
Em suma, as empresas precisam de responder ativamente aos riscos de segurança trazidos pela IA generativa, formular estratégias abrangentes de gestão de riscos e reforçar a formação dos funcionários, a fim de permanecerem competitivas e garantirem a segurança dos negócios na era da IA. O editor do Downcodes recomenda que as empresas consultem as sugestões do relatório e tomem ativamente medidas para prevenir problemas pela raiz.