このパッケージは、スペイシーのフェイスのtransformers
を抱きしめてトランスモデルを使用するためのスペイシーコンポーネントとアーキテクチャを提供します。その結果、BERT、GPT-2、XLNETなど、最先端の変圧器アーキテクチャへの便利なアクセス。
このリリースにはSpacy V3が必要です。このライブラリの以前のバージョンについては、
v0.6.x
ブランチを参照してください。
Doc
オブジェクトに保存されているトランスデータが簡単にカスタマイズされます。PIPからパッケージをインストールすると、PytorchやSpacyなどのすべての依存関係が自動的にインストールされます。モデルをインストールする前に、必ずこのパッケージをインストールしてください。また、このパッケージにはPython 3.6+ 、 Pytorch V1.5+ 、 Spacy V3.0+が必要であることに注意してください。
pip install ' spacy[transformers] '
GPUのインストールについては、 nvcc --version
を使用してCUDAバージョンspacy[transformers,cuda92]
見つけ、ブラケットにバージョンspacy[transformers,cuda100]
追加します。
Pytorchのインストールに問題がある場合は、特定のオペレーティングシステムと要件については、公式Webサイトの指示に従ってください。
ショ和 重要な注意:このパッケージは、Spacy V3.0を利用するために広範囲にリファクタリングされています。 Spacy V2.X用に構築された以前のバージョンは、かなり異なって機能しました。以前のバージョンのドキュメントについては、このREADMEの以前のタグ付きバージョンを参照してください。
Transformer
:パイプラインコンポーネントAPIリファレンスspacy-transformers
からのtransformer
コンポーネントは、トークンやテキスト分類などのタスク固有のヘッドをサポートしていないことに注意してください。タスク固有のトランスモデルは、 ner
やtextcat
などのスペイシーコンポーネントをトレーニングするための機能のソースとして使用できますが、 transformer
コンポーネントはトレーニングまたは推論のためにタスク固有のヘッドへのアクセスを提供しません。
または、既存のハグの顔のテキストまたはトークン分類モデルからの予測のみを使用したい場合は、 spacy-huggingface-pipelines
のラッパーを使用して、タスク固有のトランスモデルをスペイシーパイプラインに組み込むことができます。
Spacy's Issue Trackerを使用してバグを報告するか、その他の問題についてはディスカッションボードに新しいスレッドを開きます。