Внутренние инженеры Microsoft недавно выпустили предупреждение, указав, что конструктор изображений AI-генератора компании имеет потенциальные угрозы безопасности и что этот инструмент может генерировать вредоносный контент. Это предупреждение было направлено регулирующим органам и советам директоров, что вызывает обеспокоенность по поводу безопасности моделей ИИ. Понятно, что инструмент Designer основан на модели DALL-E OpenAI, и его потенциальные риски могут быть связаны с недостатками самой модели. Этот инцидент подчеркивает потенциальное негативное влияние больших языковых моделей и важность безопасности и этики при применении технологии искусственного интеллекта.
Инженеры Microsoft предупредили регулирующие органы и совет директоров о потенциальных рисках, связанных с генератором изображений ИИ компании. Инженеры говорят, что инструмент Designer может генерировать вредоносный контент из-за проблемы с моделью DALL-E OpenAI. Он призвал обратить внимание на угрозы безопасности.
Этот инцидент еще раз напоминает нам о том, что, хотя технология ИИ быстро развивается, мы должны обращать внимание на ее потенциальные риски и усиливать надзор и меры безопасности, чтобы обеспечить здоровое развитие технологии ИИ и избежать злоупотреблений ею. В будущем важным вопросом станет то, как сбалансировать инновации в технологиях искусственного интеллекта и риски безопасности.