MachineLearning QandAI book
1.0.0
Sebastian Raschka 著の『Machine Learning Q and AI』の補足資料。
この本に関する質問がある場合は、ディスカッションを使用してください。
機械学習と AI の基本をしっかりと押さえていて、残る知識のギャップに楽しく対処したい場合は、この本が最適です。この短い章の矢継ぎ早のシリーズでは、現場での 30 の重要な質問に対処し、自分の仕事に実装できる最新のテクノロジを常に最新の状態に保つのに役立ちます。
Machine Learning Q と AIの各章では、中心となる質問とその回答が示されており、新しい概念を説明する図と、さらに読み進めるための十分な参考資料が含まれています。
この本は、Leanpub で入手可能な Machine Learning Q and AI を完全に編集および改訂したバージョンです。
「セバスチャンより優れたガイドを求める人はほとんどいないでしょう。セバスチャンは、誇張することなく、現在この分野で最高の機械学習教育者です。各ページで、セバスチャンは幅広い知識を伝えるだけでなく、真の専門知識を示す情熱と好奇心を共有しています。」
-- Chris Albon 氏、ウィキメディア財団機械学習ディレクター
タイトル | URLリンク | 補足コード |
---|---|---|
1 | 埋め込み、表現、潜在空間 | |
2 | 自己教師あり学習 | |
3 | 数回の学習 | |
4 | 宝くじ仮説 | |
5 | データによる過学習の軽減 | |
6 | モデル変更によるオーバーフィッティングの削減 | |
7 | マルチ GPU トレーニング パラダイム | |
8 | トランスフォーマーの成功の鍵 | |
9 | 生成 AI モデル | |
10 | ランダム性の原因 | データサンプリング.ipynb ドロップアウト.ipynb ランダム-weights.ipynb |
パート II: コンピューターのビジョン | ||
11 | パラメータの数の計算 | conv-size.ipynb |
12 | 完全接続層と畳み込み層の等価性 | fc-cnn-equivalence.ipynb |
13 | ビジョントランスフォーマー用の大規模トレーニングセット | |
パート III: 自然言語処理 | ||
14 | 分配仮説 | |
15 | テキストのデータ拡張 | 逆翻訳.ipynb ノイズ注入.ipynb 文順序シャッフル.ipynb 同義語置換.ipynb 合成データ.ipynb 単語削除.ipynb word-position-swapping.ipynb |
16 | 「自己」 - 注意 | |
17 | エンコーダおよびデコーダスタイルのトランスフォーマー | |
18 | 事前トレーニング済みトランスフォーマーの使用と微調整 | |
19 | 生成大規模言語モデルの評価 | BERTScore.ipynb ブルー.ipynb perplexity.ipynb ルージュ.ipynb |
パート IV: 制作と展開 | ||
20 | ステートレスおよびステートフル トレーニング | |
21 | データ中心の AI | |
22 | 推論の高速化 | |
23 | データ配布の変化 | |
パート V: 予測パフォーマンスとモデル評価 | ||
24 | ポアソン回帰と順序回帰 | |
25 | 信頼区間 | 4 つのメソッド.ipynb 4 つのメソッドと真の値の比較.ipynb |
26 | 信頼区間と等角予測 | 等角予測.ipynb |
27 | 適切な指標 | |
28 | K フォールド相互検証の K | |
29 | トレーニングとテストセットの不一致 | |
30 | 限定されたラベル付きデータ |