GPT-J は、EleutherAI から OpenAI の GPT-3 に代わるオープンソースの代替品です。誰でもダウンロードできる GPT-J は、質問応答、感情分析、固有表現認識などのさまざまな NLP タスクで大規模モデルと同等のパフォーマンスを発揮するようにうまく微調整できます。
マシン インテリジェンスを加速するまったく新しい種類の超並列プロセッサである Graphcore の IPU (Intelligence Processing Unit) を使用して、Paperspace 上で GPT-J を実行してみてください。 Paperspace 上のクラウドでオンデマンドで高度でコスト効率の高い IPU コンピューティングにアクセスし、GPT-J などの AI モデルを構築、微調整、展開します。
ノート | フレームワーク | タイプ | 無料でお試しください |
---|---|---|---|
GPT-J を使用した IPU のテキスト含意 - 微調整 | ハグフェイス | 微調整 | |
GPT-J 6Bによるテキスト生成 | ハグフェイス | 推論 | |
IPU での 4 ビット重み量子化を使用した GPT-J による高速テキスト生成 | ハグフェイス | 推論 |
GPT-J を使用した IPU のテキスト含意 - 微調整ノートブックでは、Paperspace 上の 16 IPU システムで実行される事前トレーニング済み GPT-J モデルを微調整する方法を示します。 GLUE MNLI データセット上のテキスト含意のために GPT-J を微調整して、大規模なデータセットよりもはるかにコスト効率を高めながら SOTA パフォーマンスを達成する方法を説明します。
GPT-J 6B ノートブックによるテキスト生成では、このモデルの実装を使用して Graphcore IPU で GPT-J を実行することがいかに簡単であるかを示します。モデルの重みのハブ チェックポイント。
「IPU での 4 ビット重み量子化を使用した GPT-J による高速テキスト生成」ノートブックでは、グループ量子化を使用して、微調整なしでモデル パラメーターを 4 ビットに圧縮し、メモリ使用量を 4 分の 1 に減らし、GPT での推論を高速化する方法を示します。 J は約 1.5 倍になります。
IPU での GPT-J の使用法をさらに詳しく知りたい場合、または専門家に相談したい場合は、お気軽にお問い合わせください。
成長を続けるコミュニティに参加し、AI 専門家、IPU 開発者、研究者と交流しましょう。最新の IPU ニュースを聞いて、最新モデルにアクセスしてください。
このリポジトリのコンテンツは、MIT ライセンスの条件に従って利用可能です。詳細については、同梱の LICENSE ファイルを参照してください。