Недавно Google, гигант в области искусственного интеллекта, выпустил свою новейшую крупномасштабную языковую модель Gemini 1.5, которая имеет впечатляющее контекстное окно на 1 миллион токенов и может обрабатывать контент, эквивалентный длине целой книги или даже фильма. Эта революционная разработка, несомненно, привлекла широкое внимание в отрасли, указывая на то, что способность крупномасштабных языковых моделей обрабатывать информацию вышла на новый уровень. Однако высокая производительность не означает высокую точность, и производительность Gemini 1.5 в реальных тестах вызвала дискуссию.
Недавно Google выпустила Gemini 1.5 — модель с контекстным окном на 1 миллион токенов, которая может обрабатывать полные книги и даже фильмы. Однако при тестировании точность Gemini 1.5 была невысокой, особенно в тесте «иголка в стоге сена», где его средняя точность составляла всего 60–70%. Кроме того, Google также усомнился в подлинности видео, сгенерированного OpenAI Sora, назвав его фейком.
Выпуск Gemini 1.5 и сомнения Google в подлинности видео Соры подчеркивают проблемы, с которыми сталкиваются при разработке крупномасштабных языковых моделей, а именно, как повысить их точность и надежность, обеспечивая при этом емкость модели. Это не только проблема, с которой сталкивается Google, но и направление, в котором вся индустрия искусственного интеллекта должна работать вместе. В будущем развитии необходимо уделять больше внимания надежности и безопасности моделей, чтобы гарантировать, что технология искусственного интеллекта может действительно принести пользу человечеству.