Недавно выпущенная OpenAI модель генерации видео Sora привлекла широкое внимание своими мощными функциями, но молчание главного ученого Ильи Суцкевера вызвало множество спекуляций, а некоторые даже сомневались, уйдет ли он со своей работы. Это связано с многолетней озабоченностью Ильи проблемами безопасности ИИ, а также с «дворцовой борьбой», произошедшей в прошлом году с генеральным директором OpenAI Сэмом Альтманом из-за разногласий в концепциях разработки ИИ. Члены команды Sora происходят из таких технологических гигантов, как Microsoft, Google и Nvidia, и их техническую мощь нельзя недооценивать. Автор статьи Се Сайнин также отреагировал на этот вопрос и призвал всех обратить внимание на потенциальные риски и проблемы регулирования, связанные с технологией искусственного интеллекта.
Недавно выпущенная OpenAI модель генерации видео Sora произвела сенсацию, но главный научный сотрудник Илья промолчал, вызвав слухи об отставке. Илью всегда беспокоили вопросы безопасности ИИ. В прошлом году у них с Сэмом произошла «дворцовая драка» из-за различий в концепциях разработки ИИ. Команда Sora полна талантов, ее основные члены представляют ведущие технологические компании, такие как Microsoft, Google и NVIDIA. Автор Се Сайнин опроверг слухи о том, что он является автором Sora, и обратил внимание на потенциальные риски и проблемы регулирования, связанные с технологией искусственного интеллекта. В статье обсуждается важность талантов ИИ, а также такие вопросы, как безопасность ИИ и надзор за ним.В целом, появление Sora не только демонстрирует быстрое развитие технологий ИИ, но и еще раз подчеркивает важность безопасности и контроля ИИ. Молчание Ильи и противоречия внутри индустрии искусственного интеллекта достойны нашего глубокого размышления. Как сбалансировать технологический прогресс и потенциальные риски, станет ключевым вопросом, требующим постоянного внимания и решения в будущем. Эта статья открывает нам важные перспективы.