Чтобы повысить безопасность и надежность моделей искусственного интеллекта, OpenAI недавно объявила о ряде крупных инициатив. Эти инициативы призваны усилить процессы внутренней безопасности и ужесточить контроль над разработкой и внедрением моделей ИИ с высоким уровнем риска, тем самым минимизируя потенциальные риски и обеспечивая ответственное развитие технологий ИИ.
Компания OpenAI, занимающаяся искусственным интеллектом, усилила свои внутренние процессы безопасности, создала консультативную группу по безопасности и предоставила совету директоров право вето в отношении искусственного интеллекта высокого риска. OpenAI обновила свою подготовительную структуру, чтобы прояснить путь оценки, смягчения и определения рисков, присущих моделям. Компания оценивает модели в зависимости от уровня риска и принимает соответствующие меры по снижению риска. Модели, оцененные как высокорисковые, не смогут быть развернуты или доработаны. OpenAI также создала межфункциональную консультативную группу по безопасности для рассмотрения отчетов экспертов и выдачи рекомендаций более высокого уровня. Совет директоров и руководство совместно решат, выпускать модель или отложить ее. Этим шагом OpenAI стремится предотвратить утверждение продуктов или процессов с высоким уровнем риска без ведома или одобрения совета директоров.
Благодаря этим новым мерам OpenAI показывает, что серьезно относится к вопросам безопасности искусственного интеллекта, и подает хороший пример другим компаниям, занимающимся искусственным интеллектом. Это означает, что индустрия искусственного интеллекта активно изучает более безопасные и ответственные модели разработки и внедрения, закладывая прочную основу для здорового развития технологий искусственного интеллекта.