Быстрое развитие технологий искусственного интеллекта принесла беспрецедентные возможности для предприятий, но также принесло новые риски и проблемы. Рост генеративного ИИ привлекли особое внимание к его потенциальным рискам безопасности. В этой статье будут анализироваться последние выпущенные отчеты о рисках, чтобы изучить трудности, с которыми предпринимаются предприятия в борьбе с генеративными рисками искусственного интеллекта и о том, как принять эффективные меры для обеспечения собственной безопасности и соблюдения.
В последние годы быстрое развитие искусственного интеллекта (ИИ) принесло много возможностей для предприятий, но в то же время его потенциальные угрозы становятся все более очевидными. Согласно последнему «Отчет о рисках нового поколения» в 2024 году, опрос показывает, что до 80% опрошенных компаний еще не разработали специальные планы реагирования для генеративных рисков ИИ, включая риски безопасности, такие как мошенничество с искусственным интеллектом в Интернете.
Опрос проводился с помощью Risk Connect, компании по борьбе с программным обеспечением для управления рисками, и респонденты включали 218 глобальных специалистов по соблюдению требований и устойчивости. Результаты показывают, что 24% респондентов считают, что угрозы кибербезопасности, управляемые ИИ, такие как вымогатели, фишинга и глубокая подделка, окажут значительное влияние на предприятия в течение следующих 12 месяцев. Между тем, 72% респондентов заявили, что риски кибербезопасности оказали значительное или серьезное влияние на их организации, что увеличилось по сравнению с 47% данных прошлого года.
Поскольку усиление опасений по поводу этики искусственного интеллекта, конфиденциальности и безопасности, в отчете указывалось, что, хотя опасения компаний по поводу ИИ возросли, они не смогли соблюдать вовремя в стратегиях управления рисками, и все еще есть много ключевых пробелов. Например, 65% компаний не имеют политики для использования генеративного ИИ у партнеров и поставщиков, хотя третьими лицами являются обычные каналы вторжения для кибер -мошенников.
Внутренние угрозы не должны недооцениваться. Пример использования генеративного искусственного интеллекта для производства маркетинга, эксперт по маркетингу Энтони Миядзаки напоминает, что, хотя генеративный ИИ хорошо работает в написании текстов, окончательная копия все еще должна быть отредактирована вручную, чтобы обеспечить его убедительность и точность. Кроме того, полагаться на ИИ для создания контента веб -сайта также может привести к негативным последствиям, например, Google дал понять, что использование контента ИИ для манипулирования процессом поиска уменьшит его рейтинг поиска, что приведет к серьезным ударам для поиска компании Оптимизация двигателя (SEO).
Чтобы решить эти проблемы, компании должны обеспечить полное охват внутренних политик, обеспечить безопасность конфиденциальных данных и соответствовать соответствующим правилам. Джон Скимони, директор по безопасности Del Technology, сказал, что они сформулировали принципы перед генеративным бумом ИИ, чтобы обеспечить справедливое, прозрачное и ответственное заявки на ИИ.
В Empathy First Media вице-президент Райан Дозер также подчеркнул строгие меры, предпринятые компанией для использования сотрудников, в том числе запрещение ввода чувствительных к клиенту данных в генеративные инструменты искусственного интеллекта, требуя ручного обзора контента, сгенерированного AI, и т. Д. Эти меры предназначены для повышения прозрачности и укрепления доверия клиентов.
Ключевые моменты:
80% предприятий не разработали специализированные планы для генеративных рисков ИИ и сталкиваются с потенциальными рисками безопасности.
72% компаний считают, что риски кибербезопасности оказали на них значительное влияние и призвали к повышению управления рисками.
Предприятия должны принять положительные меры для обеспечения безопасности и соответствия заявкам на ИИ и избежать внутренних и внешних угроз.
Подводя итог, предприятия должны активно реагировать на риски безопасности, вызванные генеративным ИИ, сформулировать полные стратегии управления рисками и укреплять контроль над внутренним безопасностью, чтобы поддерживать конкурентоспособность в эпоху ИИ и продолжать развиваться. Игнорирование рисков ИИ, вероятно, приведет к серьезным несчастным случаям безопасности и экономическим потерям.