Meta выпустила новую передовую структуру политики риска ИИ, направленную на снижение рисков передовых моделей ИИ и принятие соответствующих мер контроля на основе уровня риска. Структура делит модели ИИ на две категории: высокий риск и риск, и формулирует соответствующие стратегии для разных уровней, такие как прекращение развития, ограничение прав доступа и т. Д. Этот шаг направлен на улучшение безопасности и прозрачности развития ИИ и предотвращения потенциальных угроз, таких как распространение биологического оружия и экономическое мошенничество.
Meta недавно выпустила новую структуру политики риска, направленную на оценку и снижение рисков, связанных с передовыми моделями ИИ, и прекратить разработку или ограничение выпуска этих систем, если это необходимо. Структура, называемая Frontier AI-структурой, рассказывает о том, как Meta будет разделять модели искусственного интеллекта на две категории: высокий риск и критические риски, и принимает соответствующие меры соответствующим образом для снижения рисков до «терпимых уровней».
В этой структуре критические риски определяются как способные уникально облегчить выполнение конкретных сценариев угрозы. Высокий риск означает, что модель может значительно увеличить возможность достижения сценариев угрозы, но не способствует непосредственному исполнению. Сценарии угроз включают распространение биологического оружия, возможности которых сопоставимы с известными биологическими агентами, и широко распространенный экономический ущерб человеку или компании, вызванным крупномасштабным долгосрочным мошенничеством и мошенничеством.
Для моделей, которые соответствуют пороговым значениям критического риска, Meta прекратит разработку и открыт доступ к модели только для нескольких экспертов, в то же время реализуя защиту безопасности, чтобы предотвратить хакерские или утечки данных, где технически и коммерчески осуществится. Для моделей с высоким риском Meta ограничивает доступ к доступу и принимает меры по снижению риска для снижения рисков до умеренных уровней, гарантируя, что модель существенно не улучшает возможности выполнения сценариев угроз.
Мета заявила, что в процессе оценки риска будет участвовать междисциплинарные эксперты и внутренние лидеры компании, чтобы обеспечить полное рассмотрение мнений по всем аспектам. Эта новая структура относится только к современным моделям и системам компании, возможности которых соответствуют или превышают текущие технические уровни.
Мета надеется, что, разделяя свои передовые методы разработки системы ИИ, она может повысить прозрачность и способствовать обсуждению и исследованиям по оценке ИИ и количественной науке риска. В то же время компания подчеркнула, что процесс принятия решений для оценки искусственного интеллекта будет продолжать развиваться и улучшаться с помощью разработки технологий, включая обеспечение того, чтобы результаты ее среды тестирования могли действительно отражать производительность модели в реальной работе.
Ключевые моменты:
Meta запускает новую систему политики риска для оценки и снижения рисков от передовых моделей искусственного интеллекта.
Модели ключевых рисков будут прекращены, и экспертный доступ будет ограничен;
Процесс оценки риска будет включать в себя междисциплинарные эксперты, стремясь повысить прозрачность и науку.
Новая структура Meta устанавливает более высокие стандарты безопасности для разработки и развертывания будущих моделей ИИ, отражая его приверженность ответственному развитию ИИ. Это не только помогает снизить потенциальные риски технологии искусственного интеллекта, но также обеспечивает ценный опыт и ссылки для отрасли.