18 ноября IT House сообщила, что в последнее время ходят слухи о том, что ведущие лаборатории искусственного интеллекта, включая OpenAI, Google и Anthropic, сталкиваются с трудностями при разработке передовых моделей искусственного интеллекта. В этих отчетах причина объясняется отсутствием качественных данных по обучению, что приводит к уменьшению отдачи, что затрудняет дальнейшее инвестирование.
По этому поводу генеральный директор OpenAI Сэм Альтман и генеральный директор Anthropic Дарио Амодей высказали разные мнения. Альтман, похоже, отреагировал на негативную информацию в прессе, разместив в социальных сетях загадочное сообщение, в котором говорилось, что «нет никаких ограничений». Амодей разделяет аналогичную точку зрения, и хотя он признает, что развитию искусственного интеллекта могут помешать многие факторы, он оптимистично полагает, что существуют способы преодолеть эти препятствия, включая использование синтетических данных.
IT House отметил, что бывший генеральный директор Google Эрик Шмидт также высказал свое мнение по поводу этих отчетов. Он считает, что большие языковые модели претерпят две-три итерации в ближайшие пять лет . Производительность этих моделей растет беспрецедентными темпами, и в настоящее время нет никаких свидетельств того, что эта тенденция роста вот-вот прекратится . Хотя в конечном итоге мы столкнемся с узким местом, мы еще не там.
Шмидт предсказывает, что в будущем появятся более продвинутые и мощные модели ИИ, особенно в области физики и математики. В качестве примера он привел недавно выпущенную OpenAI модель Strawberry AI OpenAI-o1. Однако Шмидт также предупредил, что по мере того, как модели становятся более совершенными, потенциальные опасности возрастают. Он отметил, что эти примитивные модели могут лучше справляться с «атаками нулевого дня», чем люди . Кроме того, биологические вирусы и новые виды войны также могут стать потенциальными угрозами, вызванными развитием ИИ.