Недавно исследовательская группа Google объявила о тревожном результате исследования: они успешно атаковали турбо-модель OpenAI GPT-3.5 стоимостью всего 150 юаней. Этот метод атаки прост и эффективен: для получения ключевой информации о модели требуется менее 2000 запросов API. Это открытие подчеркивает, что даже большие языковые модели могут столкнуться с серьезными угрозами безопасности, а также побуждает нас пересмотреть необходимость и срочность защиты безопасности ИИ. Результаты исследования показывают, что большие языковые модели не являются нерушимыми, а механизмы безопасности необходимо постоянно совершенствовать, чтобы справляться с потенциальными рисками.
Последнее исследование Google выявило успешный метод атаки на модель OpenAI GPT-3.5-turbo, стоимость которого составляет всего 150 юаней. Атака проста и эффективна, а ключевую информацию можно получить менее чем за 2000 запросов к API. Этот эксперимент напоминает, что даже большие языковые модели могут столкнуться с угрозами безопасности, и OpenAI предприняла шаги по модификации API модели, чтобы предотвратить дальнейшие атаки.
Исследования Google забили тревогу в области безопасности ИИ, а также способствовали усилиям таких компаний, как OpenAI, по усилению безопасности моделей. В будущем исследования и разработки более мощных мер безопасности и защитных механизмов станут неотъемлемой частью развития ИИ для обеспечения безопасного и надежного применения технологий ИИ.