Entendendo a amostragem negativa no aprendizado de representação de gráficos.
Zhen Yang*, Ming Ding*, Chang Zhou, Hongxia Yang, Jingren Zhou, Jie Tang. (*Esses autores contribuíram igualmente para este trabalho.)
No KDD 2020 (faixa de pesquisa)
Analisamos sistematicamente o papel da amostragem negativa das perspectivas do objetivo e do risco e quantificamos que a distribuição de amostragem negativa deve estar positiva, mas sub-linearamente, correlacionada à sua distribuição positiva de amostragem. Com a orientação da teoria, propomos MCNs, aproximando a distribuição positiva com aproximação de autocontraste e acelerando a amostragem negativa por metrópole-Hastings.
Você pode usar $ ./experiments/graphsage/***.sh
para treinar o modelo MCNS na tarefa de recomendação. Por exemplo, se você deseja treinar no conjunto de dados da Amazon, poderá executar $ ./experiments/graphsage/amazon.sh
ou python main.py --input data/amazon/ --model graphsage_mean
para treinar o modelo MCNS.
Você pode usar $ ./experiments/deepwalk/***.sh
para treinar o modelo MCNS na tarefa de recomendação. Por exemplo, se você deseja treinar no conjunto de dados ML-100K, poderá executar $ ./experiments/deepwalk/ml.sh
ou python main.py --input data/ml-100k/ --model deepwalk
para treinar MCNS Model .
Você pode usar $ ./experiments/gcn.sh
para treinar o modelo MCNS no conjunto de dados ML-100K para tarefa de recomendação.
Se você deseja treinar o MCNS no seu próprio conjunto de dados, prepare os quatro arquivos a seguir:
<node1> <node2>
.(generated by load_data.py/load_test_neg function).
O codificador treinável do nosso código é baseado no GraphSage.
Cite nosso artigo se achar este código útil para sua pesquisa:
@misc{yang2020understanding,
Author = {Zhen Yang and Ming Ding and Chang Zhou and Hongxia Yang and Jingren Zhou and Jie Tang},
Title = {Understanding Negative Sampling in Graph Representation Learning},
Year = {2020},
Eprint = {arXiv:2005.09863},
}