3.1 CDH5.4 tarball伪分布式安装

2016-03-04 01:47:56 4,890 0


安装要求:

CDH5要求JDK的版本大于等于1.7,CDH4要求JDK版本大于等于1.6,由于我们将要使用CDH5,因此JDK版本必须大于1.7。

1、下载安装包

wget http://archive.cloudera.com/cdh5/cdh/5/hadoop-2.6.0-cdh5.4.7.tar.gz

2、安装,即解压缩(本例安装到/usr/local目录下)

tar -xvf hadoop-2.6.0-cdh5.4.7.tar.gz -C /usr/local
cd /usr/local 
mv hadoop-2.6.0-cdh5.4.7 hadoop

3、设置环境变量

编辑/etc/profile文件,添加以下配置,添加完成之后输入"source /etc/profile"使得环境变量生效

`#`HADOOP VARIABLES START
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export HADOOP_OPTS="-Djava.library.path=$HADOOP_HOME/lib/native"
`#`HADOOP VARIABLES END

4、修改配置文件

需要修改的配置文件位于$HADOOP_HOME/etc/hadoop目录下,包括:

 core-site.xml、hdfs-site.xml、yarn-site.xml、mapred-site.xml、hadoop-env.sh

注意在修改xml配置文件的时候,name和value的值中间一定不能有空格

core-site.xml

<configuration>
        <property>
                <name>fs.default.name</name>
                <value>115.28.65.149:9000</value>
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>/usr/local/hadoop/tmp</value>
        </property>
</configuration>

hdfs-site.xml

<configuration>
       <property>
             <name>dfs.replication</name>
             <value>1</value>
       </property>
       </property>
       <property>
             <name>dfs.permission</name>
             <value>false</value>
       </property>
</configuration>

 mapred-site.xml

<configuration>
<property>
        <name>mapreduce.job.tracker</name>
        <value>115.28.65.149:9001</value>
</property>
<property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
</property>
</configuration>

 yarn-site.xml

<configuration>
<property>
    <name >yarn.resourcemanager.hostname</name>
        <value>115.28.65.149</value>
</property>

<property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
</property>
<!--使用Sqoop导入数据时,必须配置-->
<property>
        <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
        <value>org.apache.hadoop.mapred.ShuffleHandler</value>
</property>

<property>
        <name>yarn.resourcemanager.resource-tracker.address</name>
        <value>115.28.65.149:8025</value >
</property>
<property>
        <name>yarn.resourcemanager.scheduler.address</name>
        <value>115.28.65.149:8035</value>
</property>
<property>
        <name>yarn.resourcemanager.address</name>
        <value>115.28.65.149:8050</value>
</property>
</configuration>

5. hadoop-env.sh

在改脚本中添加以下环境变量

export JAVA_HOME=/usr/local/java #你的Java安装目录

6、设置ssh免密码登录

ssh-keygen -t rsa
#之后不断enter
cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys

7、格式化文件系统

hadoop的分布式文件系统HDFS,就像我们的普通硬盘一样,需要格式化才能生效。格式化命令如下:

hdfs namenode -format

格式化分布式文件系统,最后显示如下内容表示成功

16/03/03 21:44:53 INFO namenode.NameNode: STARTUP_MSG: 
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG:   host = cloud/10.144.178.165
STARTUP_MSG:   args = [-format]
STARTUP_MSG:   version = 2.6.0-cdh5.4.7
...
16/03/03 21:45:01 INFO util.ExitUtil: Exiting with status 0
16/03/03 21:45:01 INFO namenode.NameNode: SHUTDOWN_MSG: 
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at cloud/10.144.178.165
************************************************************/

8、启动HDFS

start-dfs.sh

9、启动yarn

start-yarn.sh

10、查看是否启动成功

出现以下几个java进程表示启动成功

>jps
9135 NameNode
9595 ResourceManager
9399 SecondaryNameNode
9726 Jps
9234 DataNode
9694 NodeManager

11. 通过WebUI查看Hadoop状态
访问http://115.28.65.149:50070,出现类似以下界面,表示WebUI可以正常工作。
QQ截图20160303215119.png


上一篇:2.4 Hadoop发行版选择 下一篇:4.0 HDFS教程