Han-Wu-Shuang (Bruce) Bao Bao Han Wu Shuang
?psychbruce.github.io
library( PsychWordVec )
pour le format APA-7 de votre version installée. # # Method 1: Install from CRAN
install.packages( " PsychWordVec " )
# # Method 2: Install from GitHub
install.packages( " devtools " )
devtools :: install_github( " psychbruce/ PsychWordVec " , force = TRUE )
PsychWordVec
embed | wordvec | |
---|---|---|
Cours de base | matrice | données.table |
Taille de la ligne | taille du vocabulaire | taille du vocabulaire |
Taille de la colonne | dimension taille | 2 (variables : word , vec ) |
Avantage | plus rapide (avec fonctionnement matriciel) | plus facile à inspecter et à gérer |
Fonction pour obtenir | as_embed() | as_wordvec() |
Fonction à charger | load_embed() | load_wordvec() |
: Remarque : L'intégration de mots fait référence à une technique de traitement du langage naturel qui intègre la sémantique des mots dans une matrice d'intégration de faible dimension, chaque mot (en fait un jeton) étant quantifié sous la forme d'un vecteur numérique représentant ses caractéristiques sémantiques (ininterprétables). données de vecteurs en tant que classe embed
en utilisant la fonction load_embed()
, qui normaliserait automatiquement tous les vecteurs de mots à la longueur unitaire 1 (voir la fonction normalize()
) et accélérerait l'exécution de la plupart des fonctions dans PsychWordVec
.
PsychWordVec
as_embed()
: de wordvec
(data.table) à embed
(matrice)as_wordvec()
: de embed
(matrice) à wordvec
(data.table)load_embed()
: charger les données d'intégration de mots en tant embed
(matrice)load_wordvec()
: charge les données d'intégration de mots en tant que wordvec
(data.table)data_transform()
: transformer les vecteurs de mots en texte brut en wordvec
ou embed
subset()
: extraire un sous-ensemble de wordvec
et embed
normalize()
: normalise tous les vecteurs de mots à la longueur unitaire 1get_wordvec()
: extraire les vecteurs de motssum_wordvec()
: calcule le vecteur somme de plusieurs motsplot_wordvec()
: visualiser les vecteurs de motsplot_wordvec_tSNE()
: visualisation 2D ou 3D avec t-SNEorth_procrustes()
: Alignement orthogonal de la matrice de Procrustecosine_similarity()
: cos_sim()
ou cos_dist()
pair_similarity()
: calcule une matrice de similarité de paires de motsplot_similarity()
: visualisez les similitudes des paires de motstab_similarity()
: tabuler les similitudes des paires de motsmost_similar()
: recherche les N mots les plus similairesplot_network()
: visualiser un graphique de réseau (corrélation partielle) de motstest_WEAT()
: WEAT et SC-WEAT avec test de permutation de significationtest_RND()
: RND avec test de permutation de significationdict_expand()
: développe un dictionnaire à partir des mots les plus similairesdict_reliability()
: analyse de fiabilité et ACP d'un dictionnairetokenize()
: tokeniser le texte bruttrain_wordvec()
: entraîner des intégrations de mots statiquestext_init()
: mettre en place un environnement Python pour PLMtext_model_download()
: télécharge les PLM de Hugging Face vers le dossier local ".cache"text_model_remove()
: supprime les PLM du dossier local ".cache"text_to_vec()
: extraire le jeton contextualisé et les intégrations de textetext_unmask()
: <obsolète> <veuillez utiliser FMAT> remplissez le(s) masque(s) vide(s) dans une requêteConsultez la documentation (pages d'aide) pour leur utilisation et leurs détails.