Команда алгоритмов поиска Xiaohongshu опубликовала на конференции AAAI2024 революционное исследование, направленное на решение проблем атрибутов черного ящика и огромного количества параметров больших языковых моделей в задачах вывода. Команда новаторски предложила новую структуру, которая эффективно улучшает возможности рассуждения больших языковых моделей за счет умелого использования знаний отрицательной выборки. Эта структура включает в себя два ключевых шага — Negative Assisted Training (NAT) и Negative Calibration Enhancement (NCE), которые значительно улучшили производительность приложений больших языковых моделей и предоставили отрасли новые направления исследований и идеи, которые заслуживают внимания.
В статье основное внимание уделяется:
Команда алгоритмов поиска Xiaohongshu представила на AAAI2024 инновационную структуру, направленную на решение проблем атрибутов черного ящика и огромного количества параметров больших языковых моделей в задачах вывода. Эта структура фокусируется на использовании знаний отрицательной выборки для улучшения возможностей рассуждения больших языковых моделей и предлагает этапы сериализации, такие как отрицательное вспомогательное обучение (NAT) и отрицательное улучшение калибровки (NCE), что дает новые идеи для повышения производительности приложений больших языковых моделей. .Это исследование команды Xiaohongshu открывает новое направление для решения проблемы вывода больших языковых моделей. Стратегия использования знаний отрицательной выборки и предложенные ею методы NAT и NCE достойны дальнейшего углубленного изучения и применения. Это знаменует собой важный прогресс в улучшении рассуждений больших языковых моделей и, как ожидается, будет способствовать применению больших языковых моделей для решения более сложных задач в будущем.