OpenAI недавно анонсировала внутреннюю шкалу для отслеживания прогресса своих больших языковых моделей в области общего искусственного интеллекта (AGI). Этот шаг не только демонстрирует амбиции OpenAI в области AGI, но и предоставляет отрасли новый стандарт для измерения развития ИИ. Эта шкала делит внедрение AGI на пять уровней: от сегодняшних чат-ботов до искусственного интеллекта, который может выполнять работу всей организации. Каждый уровень представляет собой значительное улучшение возможностей искусственного интеллекта. Редактор Downcodes подробно объяснит это и проанализирует его значение и потенциальное влияние.
По данным Bloomberg, OpenAI создала внутреннюю шкалу для отслеживания прогресса своих больших языковых моделей в области общего искусственного интеллекта (AGI). Этот шаг не только демонстрирует амбиции OpenAI в области искусственного интеллекта, но и предоставляет отрасли новый стандарт для измерения развития ИИ.
Шкала разделена на пять уровней: 1. Уровень 1. К этому уровню относятся текущие чат-боты, такие как ChatGPT. 2. Уровень 2: Системы, способные решать базовые задачи на уровне докторантуры. OpenAI утверждает, что близок к этому уровню. 3. Уровень 3: Агенты ИИ, способные выполнять действия от имени пользователей. 4. Уровень 4: ИИ, способный создавать новые инновации. 5. Уровень 5: ИИ, который может выполнять работу всей организации и считается последним шагом на пути к достижению AGI.
Однако эксперты расходятся во мнениях относительно сроков внедрения AGI. Генеральный директор OpenAI Сэм Альтман заявил в октябре 2023 года, что до AGI еще пять лет. Но даже если AGI удастся реализовать, это потребует инвестиций в миллиарды долларов в вычислительные ресурсы.
Стоит отметить, что объявление об этом стандарте оценки совпадает с объявлением OpenAI о сотрудничестве с Национальной лабораторией Лос-Аламоса для изучения того, как безопасно использовать передовые модели ИИ (такие как GPT-4) для помощи в биологических исследованиях. Целью сотрудничества является создание набора факторов безопасности и других факторов оценки для правительства США, которые можно будет использовать для тестирования различных моделей искусственного интеллекта в будущем.
Хотя OpenAI отказалась предоставить подробную информацию о том, как модели распределяются по этим внутренним уровням, агентство Bloomberg сообщило, что руководство компании недавно продемонстрировало исследовательский проект с использованием модели ИИ GPT-4, утверждая, что проект продемонстрировал некоторые новые навыки, аналогичные возможностям человеческого мышления.
Этот метод количественной оценки прогресса ИИ помогает дать более строгое определение развития ИИ и избежать субъективной интерпретации. Однако это также вызывает некоторые опасения по поводу безопасности и этики ИИ. В мае OpenAI распустила свою команду по безопасности, а некоторые бывшие сотрудники заявили, что культура безопасности компании отошла на второй план по сравнению с разработкой продуктов, хотя OpenAI это отрицает.
Решение OpenAI открывает новые направления и стандарты для исследований AGI, но также вызывает обеспокоенность по поводу безопасности и этики. Окончательная реализация AGI все еще неясна и требует постоянного внимания и осторожности. Этот масштаб и связанные с ним исследования повлияют на будущее направление развития ИИ и заслуживают постоянного внимания.