PsychWordVec
1.0.0
ハン・ウー・シュアン (ブルース) バオ・バオ ハン・ウー・シュアン
?psychbruce.github.io
library( PsychWordVec )
際の情報を参照してください。 # # Method 1: Install from CRAN
install.packages( " PsychWordVec " )
# # Method 2: Install from GitHub
install.packages( " devtools " )
devtools :: install_github( " psychbruce/ PsychWordVec " , force = TRUE )
PsychWordVec
のデータの種類embed | wordvec | |
---|---|---|
ベーシッククラス | マトリックス | データテーブル |
行サイズ | 語彙サイズ | 語彙サイズ |
列サイズ | 寸法サイズ | 2 (変数: word 、 vec ) |
アドバンテージ | より高速(行列演算あり) | 検査と管理が容易になる |
取得する関数 | as_embed() | as_wordvec() |
ロードする関数 | load_embed() | load_wordvec() |
: 注: 単語埋め込みとは、単語の意味論を低次元の埋め込み行列に埋め込む自然言語処理技術を指し、各単語 (実際にはトークン) がその (解釈できない) 意味論的な特徴を表す数値ベクトルとして定量化されます。ユーザーは単語をインポートすることをお勧めします。関数load_embed()
を使用してデータをembed
クラスとしてベクトル化します。これにより、すべての単語ベクトルが単位長1に自動的に正規化され( normalize()
関数を参照)、実行が高速化されます。 PsychWordVec
のほとんどの関数。
PsychWordVec
の関数as_embed()
: wordvec
(data.table) からembed
(行列) へas_wordvec()
: embed
(行列) からwordvec
(data.table) へload_embed()
: 単語埋め込みデータをembed
(行列) としてロードしますload_wordvec()
: 単語埋め込みデータをwordvec
(data.table) としてロードしますdata_transform()
: プレーンテキストの単語ベクトルをwordvec
またはembed
に変換します。subset()
: wordvec
のサブセットを抽出してembed
normalize()
: すべての単語ベクトルを単位長 1 に正規化します。get_wordvec()
: 単語ベクトルを抽出しますsum_wordvec()
: 複数の単語の合計ベクトルを計算します。plot_wordvec()
: 単語ベクトルを視覚化します。plot_wordvec_tSNE()
: t-SNE を使用した 2D または 3D 視覚化orth_procrustes()
: 直交プロクラステス行列の配置cosine_similarity()
: cos_sim()
またはcos_dist()
pair_similarity()
: 単語ペアの類似度行列を計算します。plot_similarity()
: 単語ペアの類似性を視覚化します。tab_similarity()
: 単語ペアの類似性を表にまとめますmost_similar()
: 上位 N 個の最も類似した単語を検索しますplot_network()
: 単語の (偏相関) ネットワーク グラフを視覚化します。test_WEAT()
: 有意性の順列テストによる WEAT および SC-WEATtest_RND()
: 有意性の順列テストを伴う RNDdict_expand()
: 最も類似した単語から辞書を展開しますdict_reliability()
: 辞書の信頼性分析と PCAtokenize()
: 生のテキストをトークン化しますtrain_wordvec()
: 静的な単語埋め込みをトレーニングしますtext_init()
: PLM 用の Python 環境をセットアップします。text_model_download()
: PLM を Hugging Face からローカルの「.cache」フォルダーにダウンロードしますtext_model_remove()
: ローカルの「.cache」フォルダーから PLM を削除しますtext_to_vec()
: コンテキスト化されたトークンとテキスト埋め込みを抽出しますtext_unmask()
: <非推奨> <FMAT を使用してください> クエリに空のマスクを入力します使用方法と詳細については、ドキュメント (ヘルプ ページ) を参照してください。