Это репо для Kokomind , набор данных с многопартийным социальным взаимодействием для оценки способностей социального понимания LLMS. Репо содержит:
Логотип Кокоминда .
Kokomind содержит 150 сложных многопартийных социальных взаимодействий (50 на источник) с вопросами и ответами свободного текста. Чтобы обеспечить разнообразие и масштабируемость и избежать загрязнения данных, все социальные взаимодействия, вопросы и ответы генерируются GPT-4 и подтверждаются человеческими экспертами позже. Эти поколения основаны на трех разных источниках:
Для каждого социального взаимодействия мы задаем различные вопросы, предназначенные для исследования следующих аспектов социального понимания.
question_nonverbal_yes_v0.1.json
содержит 770 образцов в общей сложности. Этот файл линий JSON представляет собой список словарей, с каждым словарем содержит следующие поля:
question_id
: int, уникальный идентификатор вопроса.text
: Str, контекст социального взаимодействия и вопрос.answer
: STR, GPT-4 Ответ, который был дополнительно подтвержден человеком.source
: Str, один из трех источников данных: gpt-4
, movie
, tomi
.category
: Str, одна из шести вопросов категорий: ToM
, Social Norm
, Emotion Recognition
, Social Relation
, Counterfactual
, Social Advice
. question_nonverbal_no_v0.1.json
содержит те же социальные взаимодействия и вопросы, но с невербальными сигналами в скобках (например, нервно потягивая кофе и т. Д.), Устраненные из контекста.
pip install -r requirements.txt
export OPENAI_API_KEY= < your_api_key >
export ANTHROPIC_API_KEY= < your_api_key >
# Generate local model anwers
# Use vicuna-7b as an example
python eval/get_model_answer.py --model-path ${PATH_TO_LOCAL_HF_MODEL} --model-id vicuna-7b --question-file data/question_nonverbal_yes_v0.1.jsonl --answer-file data/answer/answer_vicuna-7b.jsonl --num-gpus 8
# GPT-3 answer (reference model by alpaca-eval)
python eval/qa_baseline_gpt3.py -q data/question_nonverbal_yes_v0.1.jsonl -o data/answer/answer_gpt3.jsonl
# GPT-3.5 answer
python eval/qa_baseline_gpt35.py -q data/question_nonverbal_yes_v0.1.jsonl -o data/answer/answer_gpt35.jsonl
# GPT-4.0 answer
python eval/qa_baseline_gpt4.py -q data/question_nonverbal_yes_v0.1.jsonl -o data/answer/answer_gpt4.jsonl
# Claude answer
python eval/qa_baseline_claude.py -q data/question_nonverbal_yes_v0.1.jsonl -o data/answer/answer_claude.jsonl
Наша оценка основана на Alpaca-Eval.
# Convert to alpaca_eval input format
python eval/generate_alpaca_eval.py -q data/question_nonverbal_yes_v0.1.jsonl -a data/answer/answer_gpt3.jsonl -o data/alpaca_eval/answer_gpt3.json
alpaca_eval make_leaderboard --leaderboard_path data/alpaca_results/leaderboard.csv --all_model_outputs " ./data/alpaca_eval/answer_* " --reference_outputs data/alpaca_eval/answer_gpt3.json --is_overwrite_leaderboard True
Этот проект является демонстрацией исследований на ранней стадии, разработанной исключительно для некоммерческих целей. Он придерживается условий использования данных OpenAI и практики конфиденциальности ShareGPT. Дайте нам знать, если вы заметите какие -либо потенциальные нарушения. Код программного обеспечения доступен в соответствии с лицензией Apache 2.0.
Мы хотели бы поблагодарить Йеджина Чой из UW, Луи-Филипп Morence из CMU, Джейсона Уэстона из Meta и Diyi Yang из Стэнфорда за их просвещающие диалоги и конструктивные входные данные. Теоретическая основа Kokomind основана на исследовании Liang's PhD с Song-Chun Zhu из Пекинского университета, Университета Цинхуа и Института общего искусственного интеллекта (Bigai) и Ying Nian Wu из UCLA.
Пожалуйста, упоминайте нашу работу, если вы найдете ее полезной.
@misc { Shi_KokoMind_Can_Large_2023 ,
author = { Shi, Weiyan and Qiu, Liang and Xu, Dehong and Sui, Pengwei and Lu, Pan and Yu, Zhou } ,
title = { {KokoMind: Can Large Language Models Understand Social Interactions?} } ,
month = jul,
year = { 2023 } ,
url = { https://chats-lab.github.io/KokoMind/ }
}