En los últimos años, la tecnología de inteligencia artificial (IA) se ha desarrollado rápidamente, brindando enormes oportunidades a las empresas, pero también acechando muchos riesgos. El editor de Downcodes compiló un informe sobre cómo las empresas deberían lidiar con los riesgos generativos de la IA. El informe señaló que la mayoría de las empresas aún no han formulado estrategias de respuesta efectivas para los riesgos generativos de la IA, especialmente en términos de seguridad de la red, fraude de red impulsado por la IA, etc. La amenaza es cada vez más grave y merece la atención de las empresas.
En los últimos años, el rápido desarrollo de la inteligencia artificial (IA) ha brindado muchas oportunidades a las empresas, pero al mismo tiempo, sus amenazas potenciales se han vuelto cada vez más evidentes. Según el último "Informe de riesgos de nueva generación" de 2024, la encuesta muestra que hasta el 80% de las empresas encuestadas aún no han formulado un plan de respuesta especial para los riesgos generativos de IA, que incluye riesgos de seguridad como el fraude en línea impulsado por IA.
La encuesta, realizada por la empresa de software de gestión de riesgos Riskconnect, incluyó a 218 profesionales globales de cumplimiento y resiliencia de riesgos. Los resultados muestran que el 24% de los encuestados cree que las amenazas a la ciberseguridad impulsadas por la IA (como ransomware, phishing y deepfakes) tendrán un impacto significativo en las empresas en los próximos 12 meses. Mientras tanto, el 72% de los encuestados dijo que los riesgos de ciberseguridad tuvieron un impacto significativo o grave en sus organizaciones, frente al 47% del año pasado.
A medida que se intensifican las preocupaciones sobre cuestiones como la ética, la privacidad y la seguridad de la IA, el informe señala que, aunque las preocupaciones de las empresas sobre la IA han aumentado, no han logrado un seguimiento oportuno de las estrategias de gestión de riesgos y todavía existen muchas lagunas clave. . Por ejemplo, el 65% de las empresas no cuenta con ninguna política sobre el uso de IA generativa por parte de socios y proveedores, a pesar de que los terceros son un canal de entrada común para los ciberdefraudadores.
Tampoco se pueden subestimar las amenazas internas. Tomando como ejemplo el uso de la IA generativa por parte de las empresas para producir contenido de marketing, el experto en marketing Anthony Miyazaki recordó que aunque la IA generativa es excelente para escribir texto, la copia final aún debe editarse manualmente para garantizar su persuasión y precisión. Además, depender de la IA para generar contenido del sitio web también puede generar impactos negativos. Por ejemplo, Google ha dejado claro que si se utiliza contenido de IA para manipular el proceso de búsqueda, su clasificación en las búsquedas se reducirá, lo que tendrá un impacto grave. sobre la optimización de motores de búsqueda (SEO) de las empresas.
Para abordar estos desafíos, las empresas deben garantizar una cobertura integral de las políticas internas, proteger los datos confidenciales y cumplir con las regulaciones pertinentes. John Skimoni, director de seguridad de Del Technology, dijo que formularon principios relevantes antes de la locura generativa de la IA para garantizar que el desarrollo de aplicaciones de IA sea justo, transparente y responsable.
En la agencia de marketing digital Empathy First Media, el vicepresidente Ryan Doser también enfatizó las medidas estrictas que la compañía ha tomado sobre el uso de la IA por parte de los empleados, incluida la prohibición de la entrada de datos confidenciales de los clientes en herramientas de IA generativa y la exigencia de una revisión manual del contenido generado por la IA. Estas medidas están diseñadas para aumentar la transparencia y generar confianza en los clientes.
En definitiva, las empresas deben responder activamente a los riesgos de seguridad que plantea la IA generativa, formular estrategias integrales de gestión de riesgos y fortalecer la capacitación de los empleados para seguir siendo competitivas y garantizar la seguridad empresarial en la era de la IA. El editor de Downcodes recomienda que las empresas consulten las sugerencias del informe y tomen medidas activas para evitar problemas de raíz.