В последние годы технология искусственного интеллекта быстро развивалась, и ее применение проникло во все аспекты академических исследований. Недавнее исследование выявило влияние ИИ на рецензирование, вызвав широкое внимание ученых к написанию статей с помощью ИИ и контролю качества научных работ. Исследования показали, что на ведущих конференциях по искусственному интеллекту контент, созданный с помощью таких моделей, как ChatGPT, составляет до 17%. Это не только поднимает проблему академической честности, но и бросает вызов традиционному механизму экспертной оценки. Ниже приводится подробное объяснение результатов исследования.
Недавнее исследование показало, что на ведущих конференциях по искусственному интеллекту в 2023–2024 годах контент, созданный с помощью таких моделей, как ChatGPT, составлял до 17% рецензий. Содержание обзора в основном появляется незадолго до крайнего срока, в нем отсутствуют научные цитаты и участие рецензентов. Исследование поднимает вопросы, например, стоит ли раскрывать ИИ для помощи в рецензировании рукописей. Рост искусственного интеллекта имеет последствия для контроля качества науки, требуя переосмысления достоинств гибридной работы, основанной на знаниях.
Результаты этого исследования предупреждают нас о том, что нам необходимо пересмотреть роль искусственного интеллекта в академических исследованиях и разработать соответствующие нормы и стандарты для обеспечения качества и целостности академических исследований. В будущем академическому сообществу необходимо активно адаптироваться к развитию технологий искусственного интеллекта, изучить, как лучше использовать инструменты искусственного интеллекта, избегая при этом его потенциальных негативных последствий, и, в конечном итоге, способствовать здоровому развитию академических исследований. Это требует от ученых, разработчиков технологий и политиков совместной работы над созданием более справедливой и прозрачной академической экосистемы.