スタンドアロン インストールは、主にプログラム ロジックのデバッグに使用されます。インストール手順は基本的に分散インストールであり、環境変数、メインの Hadoop 構成ファイル、SSH 構成などが含まれます。主な違いは構成ファイルにあります。さらに、分散インストールで dfs.replication が 1 より大きい場合は、データノードが 1 つしかないため、これを 1 に変更する必要があります。
分散インストールについては、以下を参照してください。
http://acooly.iteye.com/blog/1179828
スタンドアロン インストールでは、ネームノードと JobTracker、データノードと TaskTracker、そしてもちろん SecondaryNameNode である 1 台のマシンを使用します。
主要な設定ファイル core-site.xml、hdfs-site.xml、mapred-site.xml、および masters は、分散インストール内の hdfs-site.xml のコピー数が分散ツリーのインストール設定と完全に同じです。構成スキームが 1 より大きいように定義されている場合は、1 に変更します。
次のようにコードをコピーします。
<プロパティ>
<name>dfs.replication</name>
<値>1</値>
</プロパティ>
主な違いはスレーブの構成にあり、スタンドアロン モードでは他の複数のマシンがデータノードとして使用されるため、スレーブ構成ファイルをローカル マシンのドメイン名に変更します。たとえば、ローカル マシン名が hadoop11 の場合、次のようになります。
[hadoop@hadoop11 ~]$ cat hadoop/conf/slaves
ハドゥープ11
構成が完了したら、以下を開始します。
次のようにコードをコピーします。
$ スタートオール.sh
$jps
15556JPs
15111 ジョブトラッカー
15258 タスクトラッカー
15014 セカンダリ名ノード
14861 データノード
14712 名前ノード
デモを実行する
$ echo word1 word2 word2 word3 word3 word3 > 単語
$猫の言葉
単語1 単語2 単語2 単語3 単語3 単語3
$ hadoop dfsadmin -safemode Leave
$ hadoop fs -copyFromローカルの単語 /single/input/words
$ hadoop fs -cat /single/input/words
12/02/17 19:47:44 情報 security.Groups: グループ マッピング impl=org.apache.hadoop.security.ShellBasedUnixGroupsMapping;
単語1 単語2 単語2 単語3 単語3 単語3
$ hadoop jar hadoop-0.21.0/hadoop-mapred-examples-0.21.0.jar wordcount /single/input /single/output
...
$ hadoop fs -ls /single/output
...
-rw-r--r-- 1 hadoop スーパーグループ 0 2012-02-17 19:50 /single/output/_SUCCESS
-rw-r--r-- 1 hadoop スーパーグループ 24 2012-02-17 19:50 /single/output/part-r-00000
$ hadoop fs -cat /single/output/part-r-00000
...
単語1 1
ワード2 2
ワード3 3