Ce sont les fichiers supplémentaires pour le papier AlphaCore KDD.
En attendant que cela soit empaqueté, sourcez le fichier algorithms/alphaCore.R
g <- erdos.renyi.game(200, 2/200, directed = T)
E(g)$weight <- 1:ecount(g)
V(g)$name <- paste("v", 1:vcount(g), sep="")
> alphaCore(g)
node alpha batch
1: v1 0.3281309 19
2: v2 0.3281309 30
3: v3 0.3724843 34
4: v4 0.3281309 23
5: v5 0.3281309 19
---
196: v196 0.3281309 28
197: v197 0.0000000 1
198: v198 0.3724843 34
199: v199 0.3281309 23
200: v200 0.3281309 23
> alphaCore(g, featureComputeFun = customNodeFeatures(c("indegree", "triangles")))
node alpha batch
1: v1 0.3060040 14
2: v2 0.0000000 6
3: v3 0.0000000 5
4: v4 0.0000000 5
5: v5 0.0000000 6
---
196: v196 0.6381691 19
197: v197 0.0000000 5
198: v198 0.0000000 5
199: v199 0.6381691 19
200: v200 0.0000000 8
> import networkx as nx
> G = nx.erdos_renyi_graph(n=200, seed=1, p=2/200, directed=True)
> for idx, (u,v,w) in enumerate(G.edges(data=True)):
w['value'] = idx
> alphaCore(G)
nodeID alpha batchID
0 18 0.0 0
1 75 0.0 0
2 78 0.0 0
3 25 0.3 5
4 91 0.3 5
... ... ... ...
195 8 0.7 27
196 131 0.7 27
197 185 0.7 27
198 192 0.7 27
199 158 0.7 28
Pour exécuter, vous devez d’abord télécharger les trois ensembles de données :
Les fichiers sont hébergés sur : https://zenodo.org/record/4898412. Stockez le fichier transfer.db dans data/tokens/transfers.db. Le fichier ExchangeLabels.csv correspondant doit être placé dans data/tokens/exchangeLabels.csv.
Les liens croisés Reddit font partie de http://snap.stanford.edu/conflict/conflict_data.zip Dans le fichier zip, ils se trouvent dans /prediction/detailed_data/ Placez le fichier à l'emplacement data/reddit/post_crosslinks_info.tsv
Obtenez ce fichier sur http://opsahl.co.uk/tnet/datasets/openflights.txt et stockez-le dans data/flights/openflights.txt.
Ouvrez le fichier évaluation.R depuis le répertoire principal.
Il s'agit du fichier principal pour exécuter l'évaluation. Saisissez votre nombre de cœurs de processeur et le chemin d'accès au fichier de base de données extrait.
Pour exécuter l'intégralité de l'évaluation, faites-le idéalement sur un serveur avec Rscript, car certains algorithmes, c'est-à-dire certaines centralités dépendant des calculs du plus court chemin de toutes les paires, et notre propre implémentation de k-core pondéré ont des temps d'exécution très longs. L'exécution complète prend entre 1 et 3 jours, selon le matériel.
AlphaCore, avec une taille de pas décroissante de façon exponentielle, est cependant assez rapide, même s'il ne s'agit que d'une implémentation R.
Veuillez utiliser l'entrée BibTeX suivante :
@inproceedings{10.1145/3447548.3467322,
author = {Victor, Friedhelm and Akcora, Cuneyt G. and Gel, Yulia R. and Kantarcioglu, Murat},
title = {Alphacore: Data Depth Based Core Decomposition},
year = {2021},
isbn = {9781450383325},
publisher = {Association for Computing Machinery},
address = {New York, NY, USA},
url = {https://doi.org/10.1145/3447548.3467322},
doi = {10.1145/3447548.3467322},
booktitle = {Proceedings of the 27th ACM SIGKDD Conference on Knowledge Discovery & Data Mining},
pages = {1625–1633},
numpages = {9},
keywords = {core decomposition, networks, data depth},
location = {Virtual Event, Singapore},
series = {KDD '21}
}