Nous avons mené une étude utilisateur dans laquelle nous avons demandé aux utilisateurs d'évaluer la pertinence des textes de lecture en ce qui concerne une question de déclenchement. Nous avons enregistré le signal de regard de l'utilisateur et leurs notes de pertinence. Ce référentiel contient un ensemble de scripts et de routines pour charger, traiter et analyser l'ensemble de données enregistré. L'objectif ultime est d'estimer la pertinence perçue de l'utilisateur en utilisant l'apprentissage automatique avec le signal de regard comme entrée.
emballer | description |
---|---|
data_loading | Chargez l'ensemble de données enregistré, ou des parties de celui-ci, dans une seule structure de données. Données de chargement par paragraphe et paragraphe, c'est-à-dire un chemin de balayage continu pour un paragraphe qui commence par un regard initial vers un paragraphe et se termine lorsque le signal de regard quitte la zone de paragraphe. |
features | Extraction des fonctionnalités basées sur le regard pour un certain chemin de balayage. |
data | gazere-dataset |
Voir les fichiers de lecture particuliers pour des informations plus détaillées.
L'ensemble de données enregistré comprend des notes de pertinence (pertinence perçue) de 24
participants pour 12
stimuli du corpus g-REL
et 12
stimuli du corpus Google NQ
. Les données de stimuli utilisées dans notre étude sont des paires de questions de déclenchement et de documents avec un ou plusieurs paragraphes. Nous utilisons un sous-ensemble du G-Rel Corpus [1] avec des documents de paragraphe unique qui s'adaptent sur une page et les paires sélectionnées du corpus Google Natural Questions (NQ) qui comprend des documents multi-paragraphes qui nécessitent de défiler [2]. Les deux corpus comprennent des annotations de pertinence par paragraphe que nous appelons la pertinence du système.
De plus, tout au long de leur tâche, le regard du participant à l'écran est enregistré et enregistré pour chaque document.
L'ensemble de données enregistré contient un dossier pour chaque participant de l'étude. La première lettre du nom du dossier indique le corpus de départ de l'utilisateur, et chaque corpus g-rel
et GoogleNQ
a son sous-dossier. Un fichier CSV est créé la phase de lecture d'un stimulus, contenant les enregistrements de regard des participants sur le stimulus. Le fichier CSV est nommé OrderID_StimulusID.csv
, l' OrderID
(0-11) indiquant l'ordre dans lequel l'utilisateur lit le stimulus. Le StimulusID
désigne qui documente les vues de l'utilisateur. De plus, un fichier User_Rating
économise l'estimation de pertinence du participant pour chaque stimulus après la phase de notation.
<participant_id>
-GoogleNQ
-<OrderID_StimulusID>.csv
-User_Rating
-g-REL
-<OrderID_StimulusID>.csv
-User_Rating
['timestamp', 'gaze_x', 'gaze_y', 'gaze_y_abs', 'fixation_id', 'scroll_y', 'paragraph_id']
champ | description |
---|---|
timestamp | Horodatage pour chaque échantillon de regard en [s] |
gaze_x | Position de regard horizontal |
gaze_y | Position de regard vertical |
gaze_y_abs | Position absolue du regard vertical dans le document. (En haut à gauche [0.0, doc_max_y] en bas à droite [2560.0, 0.0] ) |
fixation_id | ID de la fixation actuelle [0, num_fixation] ou None s'il n'y a pas de fixation |
scroll_y | Position de défilement relative [1.0, 0.0] (en haut: 1.0 en bas: 0.0 ) |
paragraph_id | ID du paragraphe qui est frappé par le signal de regard [-2 to 6] avec -1 faisant référence à la zone du titre et -2 se référant à l'espace libre restant et -3 se référant au bouton de notation |
L'écran a une résolution de 2560x1440
. Par conséquent, toutes les coordonnées X se trouvent entre [0.0, 2560.0]
et les coordonnées y entre [0.0, 1440.0]
.
Lorsque vous utilisez notre ensemble de données ou notre implémentation de fonctionnalité, veuillez citer l'article suivant:
@article{barz_implicit_2021,
title = {Implicit {Estimation} of {Paragraph} {Relevance} from {Eye} {Movements}},
issn = {2624-9898},
url = {https://www.frontiersin.org/articles/10.3389/fcomp.2021.808507},
doi = {10.3389/fcomp.2021.808507},
journal = {Frontiers in Computer Science},
author = {Barz, Michael and Bhatti, Omair Shahzad and Sonntag, Daniel},
year = {2021},
}
[1] Jacek Gwizdka. 2014. Caractérisation de la pertinence avec les mesures de suivi des yeux. Dans les actes de la 5e interaction d'information dans le symposium de contexte (IIIX '14). Association for Computing Machinery, New York, NY, États-Unis, 58–67. Doi: https://doi.org/10.1145/2637002.2637011
[2] Tom Kwiatkowski, Jennimaria Palomaki, Olivia Redfield, Michael Collins, Ankur Parikh, Chris Alberti, Danielle Epstein, Illia Polosukhin, Jacob Devlin, Kenton Lee, Kristina Toutanova, Llion Jones, Matthew Kelcey, Ming-Wei Chang, etw M. Dai, Jakob Uszkoreit, Quoc LE, Slav Petrov; Questions naturelles: une référence pour les questions répondant à la recherche. Transactions de l'Association for Computational Linguistics 2019; 7 453–466. doi: https://doi.org/10.1162/tacl_a_00276