このファイルまたは H2O-3 ドキュメントで回答されていない質問については、以下を使用してください。
H2O は、分散型のスケーラブルな機械学習用のインメモリ プラットフォームです。 H2O は、R、Python、Scala、Java、JSON、Flow ノートブック/Web インターフェイスなどの使い慣れたインターフェイスを使用し、Hadoop や Spark などのビッグ データ テクノロジーとシームレスに連携します。 H2O は、一般化線形モデル (GLM)、勾配ブースティング マシン (XGBoost を含む)、ランダム フォレスト、ディープ ニューラル ネットワーク、スタック アンサンブル、ナイーブ ベイズ、一般化加算モデル (GAM)、コックス比例ハザード、K- などの多くの一般的なアルゴリズムの実装を提供します。 Means、PCA、Word2Vec、および完全自動機械学習アルゴリズム (H2O) AutoML)。
H2O は拡張可能なため、開発者は任意のデータ変換やカスタム アルゴリズムを追加し、それらのすべてのクライアントを通じてアクセスできます。 H2O モデルは、スコアリングのためにダウンロードして H2O メモリにロードしたり、本番環境で非常に高速にスコアリングするために POJO または MOJO 形式にエクスポートしたりできます。詳細については、H2O ユーザー ガイドを参照してください。
H2O-3 (このリポジトリ) は H2O の 3 番目の化身であり、H2O-2 の後継です。
この README のほとんどは独自のビルドを行う開発者向けに書かれていますが、ほとんどの H2O ユーザーはビルド済みバージョンをダウンロードして使用するだけです。 Python または R ユーザーの場合、H2O をインストールする最も簡単な方法は、PyPI または Anaconda (Python の場合)、または CRAN (R の場合) を使用することです。
pip install h2o
install.packages( " h2o " )
最新の安定したナイトリー Hadoop (または Spark / Sparkling Water) リリース、またはスタンドアロンの H2O jar については、https://h2o.ai/download にアクセスしてください。
H2O のダウンロードとインストールの詳細については、H2O ユーザー ガイドを参照してください。
ほとんどの人は、次の 3 つまたは 4つの主要なオープン ソース リソースを操作します。GitHub (すでに見つけています)、 GitHub の問題(バグ レポートと問題追跡用)、H2O コード/ソフトウェア固有の質問用のスタック オーバーフロー、およびh2ostream (Google グループ) / 電子メール ディスカッション フォーラム)、Stack Overflow に適さない質問については、こちらをご覧ください。 Gitter H2O 開発者チャット グループもありますが、アーカイブの目的とアクセシビリティを最大限に高めるため、標準の H2O Q&A は Stack Overflow で実施することを希望します。
GitHub リポジトリ: https://github.com/h2oai/h2o-3 で新しい問題を参照して作成できます。
Issues
タブをクリックしますGitHub
GitHub の問題 -- ここでバグレポートをファイルしたり、問題を追跡したりできます
スタック オーバーフロー -- コード/ソフトウェアに関する質問はすべてここで質問してください
相互検証済み (Stack Exchange) -- ここでアルゴリズム/理論に関する質問をしてください
h2ostream Google グループ -- コード以外の質問はここで質問してください
Gitter H2O 開発者チャット
ドキュメント
ダウンロード (ビルド済みパッケージ)
Webサイト
Twitter -- 最新情報や H2O ニュースについてはフォローしてください。
素晴らしい H2O -- H2O を利用したあなたの作品を私たちと共有してください
毎晩のビルドでは、R、Python、Java、および Scala アーティファクトがビルド固有のリポジトリに公開されます。特に、Java アーティファクトは maven/repo ディレクトリにあります。
これは、h2o-3 を依存関係として使用する Gradle ビルド ファイルのスニペットの例です。 x、y、z、nnnn を有効な数値に置き換えます。
// h2o-3 dependency information
def h2oBranch = 'master'
def h2oBuildNumber = 'nnnn'
def h2oProjectVersion = "x.y.z.${h2oBuildNumber}"
repositories {
// h2o-3 dependencies
maven {
url "https://s3.amazonaws.com/h2o-release/h2o-3/${h2oBranch}/${h2oBuildNumber}/maven/repo/"
}
}
dependencies {
compile "ai.h2o:h2o-core:${h2oProjectVersion}"
compile "ai.h2o:h2o-algos:${h2oProjectVersion}"
compile "ai.h2o:h2o-web:${h2oProjectVersion}"
compile "ai.h2o:h2o-app:${h2oProjectVersion}"
}
夜間ビルド アーティファクトのインストールについては、最新の H2O-3 最先端の夜間ビルド ページを参照してください。
Gradle で Java アーティファクトを使用する方法の実例については、h2o-droplets GitHub リポジトリを参照してください。
注: 安定した H2O-3 アーティファクトは Maven Central (ここをクリックして検索) に定期的に公開されますが、H2O-3 Bleeding Edge の夜間ビルドより大幅に遅れる可能性があります。
H2O 開発を始めるには、JDK 1.8 以降、Node.js、Gradle、Python、R が必要です。Gradle ラッパー ( gradlew
と呼ばれます) を使用して、Gradle の最新のローカル バージョンとその他の依存関係が開発ディレクトリにインストールされていることを確認します。
h2o
を構築するには、必要なパッケージを含む R 環境と、次のパッケージを含む Python 環境が適切に設定されている必要があります。
grip
tabulate
requests
wheel
これらのパッケージをインストールするには、pip または conda を使用できます。これらのパッケージをWindowsにインストールする際に問題が発生した場合は、このガイドの「Windows でのセットアップ」セクションに従ってください。
(注: すべてのパッケージをインストールするには、VirtualEnv などの仮想環境を使用することをお勧めします。)
リポジトリから H2O をビルドするには、次の手順を実行します。
# Build H2O
git clone https://github.com/h2oai/h2o-3.git
cd h2o-3
./gradlew build -x test
You may encounter problems: e.g. npm missing. Install it:
brew install npm
# Start H2O
java -jar build/h2o.jar
# Point browser to http://localhost:54321
git clone https://github.com/h2oai/h2o-3.git
cd h2o-3
./gradlew syncSmalldata
./gradlew syncRPackages
./gradlew build
注:
- テストを実行すると、H2O クラスターを形成する 5 つのテスト JVM が開始され、少なくとも 8GB の RAM (できれば 16GB の RAM) が必要です。
./gradlew syncRPackages
の実行は Windows、OS X、および Linux でサポートされており、強く推奨されますが、必須ではありません。./gradlew syncRPackages
テストとビルドに必要なパッケージの事前承認済みバージョンを備えた完全で一貫した環境を保証します。パッケージは手動でインストールできますが、 ENV 変数を設定し、./gradlew syncRPackages
を使用することをお勧めします。 ENV 変数を設定するには、次の形式を使用します (`${WORKSPACE} には任意のパスを指定できます)。mkdir -p ${WORKSPACE}/Rlibrary export R_LIBS_USER=${WORKSPACE}/Rlibrary
git pull
./gradlew syncSmalldata
./gradlew syncRPackages
./gradlew clean
./gradlew build
git pull
たびに./gradlew clean
を使用することをお勧めします。
gradle build コマンドラインの最後に-x test
追加してテストをスキップします。テストは通常、4 つの CPU (8 つのハイパースレッド) と 16 GB の RAM を搭載した Macbook Pro ラップトップで 7 ~ 10 分間実行します。
各プル後に smalldata を同期する必要はありませんが、データ ファイルが見つからないためにテストが失敗した場合は、最初のトラブルシューティング手順として./gradlew syncSmalldata
を試してください。 smalldata を同期すると、データ ファイルが AWS S3 からワークスペースの smalldata ディレクトリにダウンロードされます。同期は増分です。これらのファイルをチェックインしないでください。 smalldata ディレクトリは .gitignore にあります。テストを実行しない場合は、smalldata ディレクトリは必要ありません。
./gradlew syncRPackages
の実行は Windows、OS X、および Linux でサポートされており、強く推奨されますが、必須ではありません。 ./gradlew syncRPackages
テストとビルドに必要なパッケージの事前承認済みバージョンを備えた完全で一貫した環境を保証します。パッケージは手動でインストールできますが、 ENV 変数を設定し、 ./gradlew syncRPackages
を使用することをお勧めします。 ENV 変数を設定するには、次の形式を使用します ( ${WORKSPACE}
には任意のパスを指定できます)。
mkdir -p ${WORKSPACE}/Rlibrary
export R_LIBS_USER=${WORKSPACE}/Rlibrary
./gradlew clean && ./gradlew build -x test && (export DO_FAST=1; ./gradlew dist)
open target/docs-website/h2o-docs/index.html
git リポジトリのルートには、開発で頻繁に使用されるビルド ターゲットの便利なショートカットを備えた Makefile が含まれています。テストと代替アセンブリのビルドをスキップしてh2o.jar
ビルドするには、次のコマンドを実行します。
make
最小限のアセンブリを使用してh2o.jar
ビルドするには、次を実行します。
make minimal
最小限のアセンブリは、H2O 機械学習アルゴリズムの開発に適しています。一部の重い依存関係 (Hadoop など) はバンドルされていないため、これを使用するとビルド時間が節約されるだけでなく、Maven リポジトリから大規模なライブラリをダウンロードする必要もなくなります。
コマンドラインから、 which python
(またはsudo which python
) を使用して、 python
が新しくインストールされたパッケージを使用していることを検証します。 WinPython パスを使用して環境変数を更新します。
pip install grip tabulate wheel
Java 1.8 以降をインストールし、適切なディレクトリC:Program FilesJavajdk1.7.0_65bin
と java.exe を環境変数の PATH に追加します。コマンド プロンプトが正しい Java バージョンを検出していることを確認するには、次のコマンドを実行します。
javac -version
CLASSPATH 変数も JDK の lib サブフォルダーに設定する必要があります。
CLASSPATH=/<path>/<to>/<jdk>/lib
Node.js をインストールし、インストールされたディレクトリC:Program Filesnodejs
を追加します。まだ先頭に追加されていない場合は、node.exe と npm.cmd を PATH に含める必要があります。
R をインストールし、bin ディレクトリを PATH に追加します (まだ含まれていない場合)。
次の R パッケージをインストールします。
R セッション内からこれらのパッケージをインストールするには:
pkgs <- c( " RCurl " , " jsonlite " , " statmod " , " devtools " , " roxygen2 " , " testthat " )
for ( pkg in pkgs ) {
if ( ! ( pkg %in% rownames(installed.packages()))) install.packages( pkg )
}
RCurl R パッケージのインストールには libcurl が必要であることに注意してください。
このパッケージはテストの実行についてはカバーしておらず、H2O の構築のみを対象としていることに注意してください。
最後に、Windows での R 開発を容易にするコマンド ライン ツールのコレクションである Rtools をインストールします。
注: Rtools のインストール中は、Cygwin.dll をインストールしないでください。
注: Cygwin のインストール中、Python.org パッケージとの競合を避けるために Python パッケージの選択を解除します。
Cygwin がすでにインストールされている場合は、Python パッケージを削除するか、PATH 変数でネイティブ Python が Cygwin の前にあることを確認します。
Git クライアントをまだお持ちでない場合は、インストールしてください。デフォルトのものは http://git-scm.com/downloads にあります。インストールする前に、コマンド プロンプトのサポートが有効になっていることを確認してください。
h2o-3 ソース コードをダウンロードして更新します。
git clone https://github.com/h2oai/h2o-3
cd h2o-3
./gradlew.bat build
エラーが発生した場合は、
--stacktrace
を使用して再度実行し、不足している依存関係に関する詳細な手順を確認します。
Homebrew をお持ちでない場合は、インストールすることをお勧めします。 OS X のパッケージ管理が簡単になります。
Java 1.8以降をインストールします。コマンド プロンプトが正しい Java バージョンを検出していることを確認するには、次のコマンドを実行します。
javac -version
Homebrew の使用:
brew install node
それ以外の場合は、NodeJS Web サイトからインストールします。
R をインストールし、bin ディレクトリを PATH に追加します (まだ含まれていない場合)。
次の R パッケージをインストールします。
R セッション内からこれらのパッケージをインストールするには:
pkgs <- c( " RCurl " , " jsonlite " , " statmod " , " devtools " , " roxygen2 " , " testthat " )
for ( pkg in pkgs ) {
if ( ! ( pkg %in% rownames(installed.packages()))) install.packages( pkg )
}
RCurl R パッケージのインストールには libcurl が必要であることに注意してください。
このパッケージはテストの実行についてはカバーしておらず、H2O の構築のみを対象としていることに注意してください。
Python をインストールします。
brew install python
pip パッケージ マネージャーをインストールします。
sudo easy_install pip
次に必要なパッケージをインストールします。
sudo pip install wheel requests tabulate
OS X にはすでに Git がインストールされているはずです。 h2o-3 ソース コードをダウンロードして更新するには:
git clone https://github.com/h2oai/h2o-3
cd h2o-3
./gradlew build
注: 通常のマシンでは、すべてのテストを実行するのに非常に長い時間 (約 1 時間) かかる場合があります。
エラーが発生した場合は、
--stacktrace
を使用して再度実行し、不足している依存関係に関する詳細な手順を確認します。
curl -sL https://deb.nodesource.com/setup_0.12 | sudo bash -
sudo apt-get install -y nodejs
Java 8 をインストールします。インストール手順は、「JDK のインストール」で参照できます。コマンド プロンプトが正しい Java バージョンを検出していることを確認するには、次のコマンドを実行します。
javac -version
インストール手順は、R インストールで参照できます。 「Linux 用 R をダウンロード」をクリックします。 「ubuntu」をクリックします。与えられた指示に従ってください。
必要なパッケージをインストールするには、上記の OS X の場合と同じ手順に従ってください。
注: Linux に RStudio Server をインストールするプロセスが失敗した場合は、次のいずれかを実行します。
sudo apt-get install libcurl4-openssl-dev
または
sudo apt-get install libcurl4-gnutls-dev
Git クライアントをまだお持ちでない場合:
sudo apt-get install git
h2o-3 ソース コードをダウンロードして更新します。
git clone https://github.com/h2oai/h2o-3
cd h2o-3
./gradlew build
エラーが発生した場合は、
--stacktrace
使用して再実行し、欠落している依存関係に関する詳しい手順を確認してください。
bower
そのような実行を拒否するため、root として実行していないことを確認してください。
curl -sL https://deb.nodesource.com/setup_16.x | sudo bash -
sudo apt-get install -y nodejs
cd /opt
sudo wget --no-cookies --no-check-certificate --header "Cookie: gpw_e24=http%3A%2F%2Fwww.oracle.com%2F; oraclelicense=accept-securebackup-cookie" "http://download.oracle.com/otn-pub/java/jdk/7u79-b15/jdk-7u79-linux-x64.tar.gz"
sudo tar xzf jdk-7u79-linux-x64.tar.gz
cd jdk1.7.0_79
sudo alternatives --install /usr/bin/java java /opt/jdk1.7.0_79/bin/java 2
sudo alternatives --install /usr/bin/jar jar /opt/jdk1.7.0_79/bin/jar 2
sudo alternatives --install /usr/bin/javac javac /opt/jdk1.7.0_79/bin/javac 2
sudo alternatives --set jar /opt/jdk1.7.0_79/bin/jar
sudo alternatives --set javac /opt/jdk1.7.0_79/bin/javac
cd /opt
sudo wget http://dl.fedoraproject.org/pub/epel/7/x86_64/e/epel-release-7-5.noarch.rpm
sudo rpm -ivh epel-release-7-5.noarch.rpm
sudo echo "multilib_policy=best" >> /etc/yum.conf
sudo yum -y update
sudo yum -y install R R-devel git python-pip openssl-devel libxml2-devel libcurl-devel gcc gcc-c++ make openssl-devel kernel-devel texlive texinfo texlive-latex-fonts libX11-devel mesa-libGL-devel mesa-libGL nodejs npm python-devel numpy scipy python-pandas
sudo pip install scikit-learn grip tabulate statsmodels wheel
mkdir ~/Rlibrary
export JAVA_HOME=/opt/jdk1.7.0_79
export JRE_HOME=/opt/jdk1.7.0_79/jre
export PATH=$PATH:/opt/jdk1.7.0_79/bin:/opt/jdk1.7.0_79/jre/bin
export R_LIBS_USER=~/Rlibrary
# install local R packages
R -e 'install.packages(c("RCurl","jsonlite","statmod","devtools","roxygen2","testthat"), dependencies=TRUE, repos="http://cran.rstudio.com/")'
cd
git clone https://github.com/h2oai/h2o-3.git
cd h2o-3
# Build H2O
./gradlew syncSmalldata
./gradlew syncRPackages
./gradlew build -x test
H2O クラスターをローカルで開始するには、コマンド ラインで次のコマンドを実行します。
java -jar build/h2o.jar
使用可能な起動 JVM および H2O オプション ( -Xmx
、 -nthreads
、 -ip
など) のリストは、H2O ユーザー ガイドで参照できます。
事前に構築された H2O-on-Hadoop zip ファイルは、ダウンロード ページから入手できます。各 Hadoop ディストリビューション バージョンには、h2o-3 に個別の zip ファイルがあります。
Hadoop サポートを備えた H2O を自分で構築するには、まず Python 用の sphinx をインストールします。 pip install sphinx
次に、最上位の h2o-3 ディレクトリから次のコマンドを入力してビルドを開始します。
export BUILD_HADOOP=1;
./gradlew build -x test;
./gradlew dist;
これにより、「target」というディレクトリが作成され、そこに zip ファイルが生成されます。ユーザー名がjenkins
の場合、 BUILD_HADOOP
がデフォルトの動作であることに注意してください ( settings.gradle
を参照)。それ以外の場合は、上記のようにリクエストする必要があります。
選択したディストリビューションのみに zip ファイルをビルドするには、 H2O_TARGET
環境変数をBUILD_HADOOP
とともに使用します。次に例を示します。
export BUILD_HADOOP=1;
export H2O_TARGET=hdp2.5,hdp2.6
./gradlew build -x test;
./gradlew dist;
h2o-hadoop
ディレクトリには、各 Hadoop バージョンにドライバーのビルド ディレクトリと fatjar のアセンブリ ディレクトリがあります。
必要がある:
h2o-hadoop
に新しいドライバー ディレクトリとアセンブリ ディレクトリ (それぞれbuild.gradle
ファイルを含む) を追加します。h2o-3/settings.gradle
に追加しますmake-dist.sh
のHADOOP_VERSIONS
に追加します。h2o-dist/buildinfo.json
のリストに追加します。Hadoop は、Java API を通じて安全なユーザー偽装をサポートしています。 Kerberos 認証されたユーザーは、NameNode の core-site.xml ファイルに入力された指定基準を満たす任意のユーザー名をプロキシすることを許可できます。この偽装は、Hadoop API またはそれをサポートする Hadoop 関連サービスの API との対話にのみ適用されます (これは、元のマシン上でそのユーザーに切り替えることと同じではありません)。
安全なユーザー偽装のセットアップ (h2o の場合):
hadoop.proxyuser.<proxyusername>.hosts
: プロキシ ユーザーが有効なユーザーに代わって偽装アクションを実行できるホストhadoop.proxyuser.<proxyusername>.groups
: 偽装がそのプロキシ ユーザーで機能するためには、偽装されたユーザーが所属する必要があるグループhadoop.proxyuser.<proxyusername>.users
: プロキシ ユーザーが偽装を許可されているユーザー<property> <name>hadoop.proxyuser.myproxyuser.hosts</name> <value>host1,host2</value> </property> <property> <name>hadoop.proxyuser.myproxyuser.groups</name> <value>group1,group2</value> </property> <property> <name>hadoop.proxyuser.myproxyuser.users</name> <value>user1,user2</value> </property>
偽装された HDFS アクションは、hdfs 監査ログで確認できます (これが該当するエントリでは、「auth:PROXY」がエントリのugi=
フィールドに表示されるはずです)。 YARN も同様に、リソース マネージャー UI のどこかに「auth:PROXY」と表示されるはずです。
h2o の Hadoop ドライバーで安全な偽装を使用するには:
これを試みる前に、以下の「なりすましによるリスク」を参照してください。
h2odriver を使用する場合 (たとえば、 hadoop jar ...
で実行している場合など)、他のオプションに加えて、 -principal <proxy user kerberos principal>
、 -keytab <proxy user keytab path>
、および-run_as_user <hadoop username to impersonate>
を指定します。引数が必要です。構成が成功した場合、プロキシ ユーザーは、ユーザーまたはグループ構成プロパティ (上記で構成) のいずれかで許可されている限り、ログインして-run_as_user
になりすまします。これは、h2o のコードではなく、HDFS と YARN によって強制されます。ドライバーは、そのセキュリティ コンテキストを偽装ユーザーとして効果的に設定するため、サポートされているすべての Hadoop アクションがそのユーザーとして実行されます (たとえば、YARN、HDFS API は安全に偽装ユーザーをサポートしますが、その他の API はサポートしない場合があります)。
hadoop.proxyuser.<proxyusername>.hosts
プロパティを使用してください。su
経由) を確認してください。hadoop.proxyuser.<proxyusername>.{hosts,groups,users}
プロパティを「*」に設定すると、セキュリティ リスクにさらされる可能性が大幅に高まる可能性があります。 $ git diff
diff --git a/h2o-app/build.gradle b/h2o-app/build.gradle
index af3b929..097af85 100644
--- a/h2o-app/build.gradle
+++ b/h2o-app/build.gradle
@@ -8,5 +8,6 @@ dependencies {
compile project(":h2o-algos")
compile project(":h2o-core")
compile project(":h2o-genmodel")
+ compile project(":h2o-persist-hdfs")
}
diff --git a/h2o-persist-hdfs/build.gradle b/h2o-persist-hdfs/build.gradle
index 41b96b2..6368ea9 100644
--- a/h2o-persist-hdfs/build.gradle
+++ b/h2o-persist-hdfs/build.gradle
@@ -2,5 +2,6 @@ description = "H2O Persist HDFS"
dependencies {
compile project(":h2o-core")
- compile("org.apache.hadoop:hadoop-client:2.0.0-cdh4.3.0")
+ compile("org.apache.hadoop:hadoop-client:2.4.1-mapr-1408")
+ compile("org.json:org.json:chargebee-1.0")
}
Sparkling Water は、Apache Spark と H2O Machine Learning プラットフォームという 2 つのオープンソース テクノロジーを組み合わせています。これにより、深層学習、GLM、GBM、K-Means、分散ランダム フォレストなどの高度なアルゴリズムの H2O ライブラリに Spark ワークフローからアクセスできるようになります。 Spark ユーザーは、機械学習のニーズを満たすために、どちらのプラットフォームからも最適な機能を選択できます。ユーザーは、Spark の RDD API および Spark MLLib を H2O の機械学習アルゴリズムと組み合わせたり、モデル構築プロセスに Spark とは独立して H2O を使用したり、Spark で結果を後処理したりできます。
炭酸水資源:
H2O の主なドキュメントは、H2O ユーザー ガイドです。 H2O プロジェクトに関するドキュメントのトップレベルの概要については、http://docs.h2o.ai にアクセスしてください。
REST API ドキュメントを生成するには、次のコマンドを使用します。
cd ~/h2o-3
cd py
python ./generate_rest_api_docs.py # to generate Markdown only
python ./generate_rest_api_docs.py --generate_html --github_user GITHUB_USER --github_password GITHUB_PASSWORD # to generate Markdown and HTML
生成されたドキュメントのデフォルトの場所はbuild/docs/REST
です。
ビルドが失敗した場合は、 gradlew clean
試してから、 git clean -f
試してください。
各最先端の夜間ビルドのドキュメントは、夜間ビルドのページで入手できます。
出版物のワークフローの一部として H2O を使用する場合は、次の BibTex エントリを使用して H2O リソースを引用してください。
@Manual{h2o_package_or_module,
title = {package_or_module_title},
author = {H2O.ai},
year = {year},
month = {month},
note = {version_information},
url = {resource_url},
}
フォーマットされた H2O ソフトウェアの引用例:
H2O アルゴリズムの小冊子は、Documentation Homepage から入手できます。
@Manual{h2o_booklet_name,
title = {booklet_title},
author = {list_of_authors},
year = {year},
month = {month},
url = {link_url},
}
フォーマットされた小冊子の引用例:
Arora, A.、Candel, A.、Lanford, J.、LeDell, E.、および Parmar, V. (2016 年 10 月)。 H2O を使用したディープラーニング。 http://docs.h2o.ai/h2o/latest-stable/h2o-docs/booklets/DeepLearningBooklet.pdf。
Click, C.、Lanford, J.、Malohlava, M.、Parmar, V.、Roark, H. (2016 年 10 月)。 H2O を使用した勾配ブースト モデル。 http://docs.h2o.ai/h2o/latest-stable/h2o-docs/booklets/GBMBooklet.pdf。
H2O は、H2O.ai (会社) とより大きなオープンソース コミュニティの両方で、長年にわたって非常に多くの貢献者によって構築されてきました。 Stack Overflow の質問に答えたり、バグ レポートを提出したりすることで、H2O への貢献を始めることができます。ぜひご参加ください!
SriSatish Ambati
Cliff Click
Tom Kraljevic
Tomas Nykodym
Michal Malohlava
Kevin Normoyle
Spencer Aiello
Anqi Fu
Nidhi Mehta
Arno Candel
Josephine Wang
Amy Wang
Max Schloemer
Ray Peck
Prithvi Prabhu
Brandon Hill
Jeff Gambera
Ariel Rao
Viraj Parmar
Kendall Harris
Anand Avati
Jessica Lanford
Alex Tellez
Allison Washburn
Amy Wang
Erik Eckstrand
Neeraja Madabhushi
Sebastian Vidrio
Ben Sabrin
Matt Dowle
Mark Landry
Erin LeDell
Andrey Spiridonov
Oleg Rogynskyy
Nick Martin
Nancy Jordan
Nishant Kalonia
Nadine Hussami
Jeff Cramer
Stacie Spreitzer
Vinod Iyengar
Charlene Windom
Parag Sanghavi
Navdeep Gill
Lauren DiPerna
Anmol Bal
Mark Chan
Nick Karpov
Avni Wadhwa
Ashrith Barthur
Karen Hayrapetyan
Jo-fai Chow
Dmitry Larko
Branden Murray
Jakub Hava
Wen Phan
Magnus Stensmo
Pasha Stetsenko
Angela Bartz
Mateusz Dymczyk
Micah Stubbs
Ivy Wang
Terone Ward
Leland Wilkinson
Wendy Wong
Nikhil Shekhar
Pavel Pscheidl
Michal Kurka
Veronika Maurerova
Jan Sterba
Jan Jendrusak
Sebastien Poirier
Tomáš Frýda
Ard Kelmendi
Yuliia Syzon
Adam Valenta
Marek Novotny
Zuzana Olajcova
科学諮問委員会
Stephen Boyd
Rob Tibshirani
Trevor Hastie
システム、データ、ファイルシステム、Hadoop
Doug Lea
Chris Pouliot
Dhruba Borthakur
Jishnu Bhattacharjee, Nexus Venture Partners
Anand Babu Periasamy
Anand Rajaraman
Ash Bhardwaj
Rakesh Mathur
Michael Marks
Egbert Bierman
Rajesh Ambati