Este é o repositório da Kokomind , um conjunto de dados com interações sociais multipartidárias para avaliar as habilidades de entendimento social da LLMS. O repo contém:
Logotipo de Kokomind .
O Kokomind contém 150 interações sociais multipartidárias complexas (50 por fonte) com perguntas e respostas de texto livre. Para garantir a diversidade e escalabilidade e evitar a contaminação dos dados, todas as interações, perguntas e respostas sociais são geradas pelo GPT-4 e verificadas por especialistas humanos posteriormente. Essas gerações são baseadas em três fontes diferentes:
Para cada interação social, fazemos várias perguntas projetadas para investigar os seguintes aspectos da compreensão social.
question_nonverbal_yes_v0.1.json
contém 770 amostras no total. Este arquivo de linhas JSON é uma lista de dicionários, com cada dicionário contém os seguintes campos:
question_id
: int, o ID exclusivo da pergunta.text
: STR, contexto de interação social e pergunta.answer
: STR, resposta GPT-4 que foi ainda mais verificada pelo humano.source
: STR, uma das três fontes de dados: gpt-4
, movie
, tomi
.category
: STR, uma das seis categorias de perguntas: ToM
, Social Norm
, Emotion Recognition
, Social Relation
, Counterfactual
, Social Advice
. question_nonverbal_no_v0.1.json
contém as mesmas interações e perguntas sociais, mas com as pistas não verbais nos parênteses (por exemplo, tomando um café nervosamente, etc.) removidos do contexto.
pip install -r requirements.txt
export OPENAI_API_KEY= < your_api_key >
export ANTHROPIC_API_KEY= < your_api_key >
# Generate local model anwers
# Use vicuna-7b as an example
python eval/get_model_answer.py --model-path ${PATH_TO_LOCAL_HF_MODEL} --model-id vicuna-7b --question-file data/question_nonverbal_yes_v0.1.jsonl --answer-file data/answer/answer_vicuna-7b.jsonl --num-gpus 8
# GPT-3 answer (reference model by alpaca-eval)
python eval/qa_baseline_gpt3.py -q data/question_nonverbal_yes_v0.1.jsonl -o data/answer/answer_gpt3.jsonl
# GPT-3.5 answer
python eval/qa_baseline_gpt35.py -q data/question_nonverbal_yes_v0.1.jsonl -o data/answer/answer_gpt35.jsonl
# GPT-4.0 answer
python eval/qa_baseline_gpt4.py -q data/question_nonverbal_yes_v0.1.jsonl -o data/answer/answer_gpt4.jsonl
# Claude answer
python eval/qa_baseline_claude.py -q data/question_nonverbal_yes_v0.1.jsonl -o data/answer/answer_claude.jsonl
Nossa avaliação é baseada em alpaca-eval.
# Convert to alpaca_eval input format
python eval/generate_alpaca_eval.py -q data/question_nonverbal_yes_v0.1.jsonl -a data/answer/answer_gpt3.jsonl -o data/alpaca_eval/answer_gpt3.json
alpaca_eval make_leaderboard --leaderboard_path data/alpaca_results/leaderboard.csv --all_model_outputs " ./data/alpaca_eval/answer_* " --reference_outputs data/alpaca_eval/answer_gpt3.json --is_overwrite_leaderboard True
Este projeto é uma vitrine de pesquisa em estágio inicial, projetado apenas para fins não comerciais. Adere aos termos de uso de dados da OpenAI e as práticas de privacidade do ShareGPT. Deixe -nos saber se você identificar alguma violações em potencial. O código do software está disponível no Apache License 2.0.
Gostaríamos de agradecer a Yejin Choi da UW, da Morência de Louis-Philippe da CMU, Jason Weston de Meta e Diyi Yang de Stanford por seus diálogos esclarecedores e entradas construtivas. A fundação teórica de Kokomind é baseada na pesquisa de doutorado de Liang com Song-Chun Zhu pela Universidade de Pequim, Universidade de Tsinghua e Instituto de Inteligência Artificial Geral (Bigai) e Ying Nian Wu da UCLA.
Cite nosso trabalho se achar útil.
@misc { Shi_KokoMind_Can_Large_2023 ,
author = { Shi, Weiyan and Qiu, Liang and Xu, Dehong and Sui, Pengwei and Lu, Pan and Yu, Zhou } ,
title = { {KokoMind: Can Large Language Models Understand Social Interactions?} } ,
month = jul,
year = { 2023 } ,
url = { https://chats-lab.github.io/KokoMind/ }
}