Han-Wu-Shuang (Bruce) Bao Bao Han Wu Shuang
?psychbruce.github.io
library( PsychWordVec )
für das APA-7-Format Ihrer installierten Version verwenden. # # Method 1: Install from CRAN
install.packages( " PsychWordVec " )
# # Method 2: Install from GitHub
install.packages( " devtools " )
devtools :: install_github( " psychbruce/ PsychWordVec " , force = TRUE )
PsychWordVec
embed | wordvec | |
---|---|---|
Grundkurs | Matrix | Datentabelle |
Zeilengröße | Wortschatzgröße | Wortschatzgröße |
Spaltengröße | Dimensionsgröße | 2 (Variablen: word , vec ) |
Vorteil | schneller (mit Matrixbetrieb) | einfacher zu prüfen und zu verwalten |
Zu erhaltende Funktion | as_embed() | as_wordvec() |
Funktion zum Laden | load_embed() | load_wordvec() |
: Hinweis: Worteinbettung bezieht sich auf eine Technik zur Verarbeitung natürlicher Sprache, die Wortsemantik in eine niedrigdimensionale Einbettungsmatrix einbettet, wobei jedes Wort (eigentlich Token) als numerischer Vektor quantifiziert wird, der seine (nicht interpretierbaren) semantischen Merkmale darstellt. Benutzern wird empfohlen, Wörter zu importieren Vektordaten als embed
mithilfe der Funktion load_embed()
, die automatisch alle Wortvektoren auf die Einheitslänge 1 normalisiert (siehe Funktion normalize()
) und die Ausführung von beschleunigt die meisten Funktionen in PsychWordVec
.
PsychWordVec
as_embed()
: von wordvec
(data.table) nach embed
(Matrix)as_wordvec()
: von embed
(Matrix) nach wordvec
(Data.table)load_embed()
: Worteinbettungsdaten als embed
(Matrix) ladenload_wordvec()
: Worteinbettungsdaten als wordvec
(data.table) ladendata_transform()
: Transformiert Klartext-Wortvektoren in wordvec
oder embed
subset()
: Extrahieren Sie eine Teilmenge von wordvec
und embed
normalize()
: Normalisiert alle Wortvektoren auf die Einheitslänge 1get_wordvec()
: Wortvektoren extrahierensum_wordvec()
: Berechnen Sie den Summenvektor mehrerer Wörterplot_wordvec()
: Wortvektoren visualisierenplot_wordvec_tSNE()
: 2D- oder 3D-Visualisierung mit t-SNEorth_procrustes()
: Orthogonale Procrustes-Matrixausrichtungcosine_similarity()
: cos_sim()
oder cos_dist()
pair_similarity()
: Berechnen Sie eine Ähnlichkeitsmatrix von Wortpaarenplot_similarity()
: Visualisiert Ähnlichkeiten von Wortpaarentab_similarity()
: Ähnlichkeiten von Wortpaaren tabellarisch darstellenmost_similar()
: Finden Sie die Top-N-Wörter mit der größten Ähnlichkeitplot_network()
: Visualisieren Sie einen (partiellen Korrelations-)Netzwerkgraphen von Wörterntest_WEAT()
: WEAT und SC-WEAT mit Permutationstest auf Signifikanztest_RND()
: RND mit Permutationstest auf Signifikanzdict_expand()
: Erweitern Sie ein Wörterbuch aus den ähnlichsten Wörterndict_reliability()
: Zuverlässigkeitsanalyse und PCA eines Wörterbuchstokenize()
: Rohtext tokenisierentrain_wordvec()
: Statische Worteinbettungen trainierentext_init()
: Richten Sie eine Python-Umgebung für PLM eintext_model_download()
: PLMs von Hugging Face in den lokalen Ordner „.cache“ herunterladentext_model_remove()
: PLMs aus dem lokalen Ordner „.cache“ entfernentext_to_vec()
: kontextualisierte Token- und Texteinbettungen extrahierentext_unmask()
: <veraltet> <bitte FMAT verwenden> Füllen Sie die leere(n) Maske(n) in einer Abfrage ausInformationen zur Verwendung und Einzelheiten finden Sie in der Dokumentation (Hilfeseiten).