このプロジェクトは初版用であり、現在は期限切れになっています。
このプロジェクトは、Python での機械学習の基礎を教えることを目的としています。これには、オライリーの著書『Scikit-Learn と TensorFlow を使用したハンズオン機械学習』の演習のコード例と解決策が含まれています。
以下のいずれかのサービスをご利用ください。
警告: これらのサービスは一時的な環境を提供することに注意してください。何をしてもしばらくすると削除されるため、気になるデータは必ずダウンロードしてください。
推奨: Colaboratory でこのリポジトリを開きます。
またはバインダーで開きます。
または、Deepnote で開きます。
jupyter.org のノートブック ビューアを使用してこのリポジトリを参照します。
注: github.com のノートブック ビューアも動作しますが、速度が遅く、数式が常に正しく表示されるわけではありません。
Docker の説明を読んでください。
まず、Anaconda (または Miniconda)、git をインストールします。TensorFlow と互換性のある GPU がある場合は、GPU ドライバーと適切なバージョンの CUDA および cuDNN をインストールします (詳細については、TensorFlow のドキュメントを参照してください)。
次に、ターミナルを開いて次のコマンドを入力して、このプロジェクトのクローンを作成します (各行の最初の$
記号は入力しないでください。これは、これらがターミナル コマンドであることを示すだけです)。
$ git clone https://github.com/ageron/handson-ml.git
$ cd handson-ml
次に、次のコマンドを実行します。
$ conda env create -f environment.yml
$ conda activate tf1
$ python -m ipykernel install --user --name=python3
最後に、Jupyter を起動します。
$ jupyter notebook
さらに詳しい手順が必要な場合は、詳細なインストール手順をお読みください。
どの Python バージョンを使用すればよいですか?
Python 3.7 をお勧めします。上記のインストール手順に従えば、そのバージョンが得られます。ほとんどのコードは Python 3 の他のバージョンでも動作しますが、一部のライブラリは Python 3.8 または 3.9 をまだサポートしていないため、Python 3.7 をお勧めします。
load_housing_data()
呼び出すとエラーが発生します
fetch_housing_data()
) を呼び出す前に、必ずload_housing_data()
) を呼び出してください。 HTTP エラーが発生した場合は、ノートブックとまったく同じコードを実行していることを確認してください (必要に応じてコピーして貼り付けてください)。問題が解決しない場合は、ネットワーク構成を確認してください。
MacOSX で SSL エラーが発生する
おそらく SSL 証明書をインストールする必要があります (この StackOverflow の質問を参照)。公式 Web サイトから Python をダウンロードした場合は、ターミナルで/Applications/Python 3.7/Install Certificates.command
を実行します ( 3.7
をインストールしたバージョンに変更します)。 MacPorts を使用して Python をインストールした場合は、ターミナルでsudo port install curl-ca-bundle
を実行します。
このプロジェクトをローカルにインストールしました。最新バージョンに更新するにはどうすればよいですか?
INSTALL.md を参照してください。
Anaconda を使用している場合、Python ライブラリを最新バージョンに更新するにはどうすればよいですか?
INSTALL.md を参照してください。
有益なフィードバックを提供したり、問題を提出したり、プル リクエストを送信したりして、このプロジェクトに貢献してくださった皆様に感謝いたします。すべてのノートをレビューし、いくつかの演習ソリューションのサポートを含む多くの PR を提出してくれた Haesun Park と Ian Beauregard に特に感謝します。 docker
ディレクトリを作成した Steven Bunkley と Ziembla、そしていくつかの演習ソリューションを手伝ってくれた Github ユーザー SuperYorio にも感謝します。