エンドツーエンド LLM (大規模言語モデル) ブートキャンプは、データ処理、開発、およびデプロイメントのパイプライン パラダイムに従う現実世界の観点から設計されています。参加者は、テキスト生成タスク用に openassistant-guanaco データセットを前処理し、事前トレーニングおよび微調整された LLM である LLAMA 2 7Billion モデルを使用してデータセットをトレーニングするワークフローを順を追って説明します。参加者は、高性能大規模言語モデル推論用の SDK である NVIDIA® TensorRT™ LLM を使用して LLM を最適化し、NVIDIA NeMo Guardrails を使用して LLM モデルからのガードレール プロンプトと応答を理解し、NVIDIA TensorRT LLM バックエンドを使用して AI パイプラインを展開する方法も学びます。 (Triton™ Inference Server を搭載) は、あらゆるワークロードにわたって LLM の展開と実行を標準化するオープンソース ソフトウェアです。
このコンテンツには 3 つのラボと 1 つのチャレンジ ノートブックが含まれています。
Bootcamp 教材で使用されるツールとフレームワークは次のとおりです。
ブートキャンプの教材は合計で約 7 時間 30 分かかります。教材の指導を 2 日に分けて、ラボ 1 ~ 3 を 1 つのセッションでカバーし、残りを次のセッションでカバーすることをお勧めします。
ラボを展開するには、ここに示されている展開ガイドを参照してください。
この資料は OpenHackathons Github リポジトリからのものです。追加資料はこちらからご覧ください
追加の Open Hackathons Resources をチェックし、OpenACC および Hackathons Slack チャンネルに参加して、経験を共有し、コミュニティからさらに支援を受けることを忘れないでください。
著作権 © 2024 OpenACC-Standard.org。この資料は、NVIDIA Corporation と協力して、Creative Commons Attribution 4.0 International (CC BY 4.0) に基づいて OpenACC-Standard.org によってリリースされています。これらの資料には、他の事業体によって開発されたハードウェアおよびソフトウェアへの参照が含まれる場合があります。該当するすべてのライセンスと著作権が適用されます。