LLM を使用した生成 AI
大規模言語モデル (LLM) を使用した生成 AI では、生成 AI の仕組みの基礎と、それを現実世界のアプリケーションにデプロイする方法を学びます。
このコースを受講すると、次のことを学びます。
- 生成 AI を深く理解し、データ収集とモデル選択からパフォーマンス評価と導入まで、典型的な LLM ベースの生成 AI ライフサイクルの主要なステップを説明します。
- LLM を強化するトランスフォーマー アーキテクチャ、LLM のトレーニング方法、および微調整によって LLM をさまざまな特定のユース ケースに適応させる方法について詳しく説明します。
- 経験的なスケーリング則を使用して、データセットのサイズ、計算予算、推論要件全体にわたってモデルの目的関数を最適化します。
- 最先端のトレーニング、チューニング、推論、ツール、展開方法を適用して、プロジェクトの特定の制約内でモデルのパフォーマンスを最大化します。
- 業界の研究者や実践者から話を聞いた後、生成 AI がビジネスにもたらす課題と機会について話し合います
LLM がどのように機能するか、また LLM のトレーニングと導入の背後にあるベスト プラクティスについて基礎を十分に理解している開発者は、企業のために適切な決定を下し、実用的なプロトタイプをより迅速に構築できるようになります。このコースは、学習者がこのエキサイティングな新しいテクノロジーを最大限に活用する方法について実践的な直感を構築できるようにサポートします。
1週目
生成 AI のユースケース、プロジェクトのライフサイクル、モデルの事前トレーニング
学習目標
- モデルの事前トレーニングと、継続的な事前トレーニングと微調整の価値について話し合います。
- 生成 AI、大規模言語モデル、プロンプトという用語を定義し、LLM を強化するトランスフォーマー アーキテクチャについて説明する
- 典型的な LLM ベースの生成 AI モデルのライフサイクルのステップを説明し、モデルのライフサイクルの各ステップでの意思決定を促進する制約要因について説明します。
- モデルの事前トレーニング中に計算上の課題について話し合い、メモリ使用量を効率的に削減する方法を決定します。
- スケーリングの法則という用語を定義し、トレーニング データセットのサイズ、計算予算、推論要件、その他の要素に関連する LLM に関して発見された法則について説明します。
ラボ 1 - 生成 AI の使用例: 対話の要約
第 1 週目のクイズ
2週目
大規模な言語モデルの微調整と評価
学習目標
- プロンプト データセットを使用した指示による微調整により、1 つ以上のタスクのパフォーマンスがどのように向上するかを説明する
- 壊滅的な物忘れを定義し、それを克服するために使用できるテクニックを説明する
- パラメーター効率の良い微調整 (PEFT) という用語の定義
- PEFT がどのように計算コストを削減し、壊滅的な忘却を克服するかを説明する
- プロンプト データセットを使用した指示による微調整により、1 つ以上の LLM パフォーマンスがどのように向上するかを説明する
ラボ 2 - 対話要約用の生成 AI モデルを微調整する
第 2 週目クイズ
3週目
強化学習と LLM を利用したアプリケーション
学習目標
- RLHF が人間のフィードバックを使用して大規模な言語モデルのパフォーマンスと調整を改善する方法について説明する
- 人間のラベラーから収集したデータを使用して RLHF の報酬モデルをトレーニングする方法を説明する
- 思考連鎖プロンプトを定義し、それを使用して LLM の推論能力と計画能力を向上させる方法を説明する
- 知識の遮断によって LLM が直面する課題について話し合い、情報検索と拡張技術がこれらの課題をどのように克服できるかを説明します
ラボ 3 - 強化学習を使用して FLAN-T5 を微調整し、より肯定的な要約を生成する
第 3 週目クイズ