Недавно в AI-сообществе разгорелись бурные дискуссии из-за утечки новой модели «miqu». Говорят, что производительность этой модели близка к GPT-4, что однажды вызвало критическую дискуссию в области искусственного интеллекта с открытым исходным кодом. Однако расследование показало, что «Miqu» был не совершенно новой моделью, а более старой, количественно проверенной моделью от Mistral. Этот инцидент выявил области, которые еще необходимо улучшить в разработке и обеспечении безопасности крупномасштабных языковых моделей, а также заставил задуматься о риске утечки моделей и управлении сообществом с открытым исходным кодом.
В сообществе ИИ шла бурная дискуссия по поводу утечки новой модели «мику», которая, наконец, была подтверждена как количественная версия старой модели «Мистраля». Производительность модели близка к GPT-4, что вызвало бурные дискуссии среди разработчиков. ИИ с открытым исходным кодом может открыть критический момент. После тестирования и сравнения было подтверждено, что miqu может быть утекшей версией модели Mistral, более старой экспериментальной модели. Генеральный директор Mistral рассказал, что это была старая модель, о которой слили сотрудники, которые были слишком полны энтузиазма и не просили удалить пост на HuggingFace. Дискуссии в сообществе ИИ обострились. Предполагаемая количественная версия модели Mistral привлекла внимание отрасли, и будущая тенденция остается неопределенной.
Хотя в конечном итоге было подтверждено, что этот инцидент с «мику» не является революционным прорывом, он также прозвучал тревожный сигнал для индустрии искусственного интеллекта, напомнив всем обратить внимание на важность безопасности моделей и защиты интеллектуальной собственности. В будущем важной темой станет то, как сбалансировать открытость сообщества открытого исходного кода и безопасность модели.