Hadoop完全分布模式的搭建

Hadoop完全分布模式的搭建

目录

1.安装前准备

在VMware安装3台Ubuntu16.04的虚拟机并且都安装jdk。采用ifconfig命令查看IP地址,
我的IP地址依次是:
192.168.17.135
192.168.17.136
192.168.17.137
IP地址建议设置成固定IP地址

2.修改主机名

(1)修改第一台主机名称为node1。

sudo vi /etc/hostname

将原有内容删除,添加如下内容。

node1

重启使之生效。

sudo reboot

(2)修改第二台主机名称为node2。

sudo vi /etc/hostname

将原有内容删除,添加如下内容。

node2

重启使之生效。

sudo reboot

(3)修改第三台主机名称为node3。

sudo vi /etc/hostname

将原有内容删除,添加如下内容。

node3

重启使之生效。

sudo reboot

3.映射IP地址及主机名

对3台虚拟机,依次修改/etc/hosts文件。

sudo vi /etc/hosts

在文件末尾添加如下内容。注意:IP地址要根据实际情况填写。

192.168.17.135 node1
192.168.17.136 node2
192.168.17.137 node3

4.免密登录设置

在完全分布式模式下,集群内任意一台主机可免密登录集群内所有主机,即实现了两 两免密登录。免密登录的设置方法和伪分布模式的免密登录设置方法一样,分别在 nodel.node2.node3主机上生成公钥/私钥密钥对,然后将公钥发送给集群内的所有主机。 下面以node1免密登录集群内其他所有主机为例进行讲解。在完成nodel主机免密登录 集群内其他主机后,其他两台主机可仿照node1的步骤完成免密码登录设置。
(1)在nodel主机生成密钥对。

ssh-keygen -t rsa

其中,rsa表示加密算法,键人上面一条命令后连续敲击三次回车键,系统会自动在~/. ssh目录下生成公钥(id_rsa.pub)和私钥(id_rsa),可通过命令$ls~/ssh查看。

ls ~/.ssh
id_rsa  id_rsa.pub

(2)将node1公钥id_rsa.pub复制到node1、node2和node3主机上。

$ ssh-copy-id-i  ~/.ssh/idrsa.pub nodel
$ ssh-copy-id -i  ~/.ssh/id rsa.pub node2
$ ssh-copy-id-i  ~/.ssh/id rsa.pub node3

(3)验证免密登录:在nodel主机输人一下命令验证,注意主机名称的变化。

$ ssh node1
$ ssh node2
$ ssh node3

5.安装NTP服务

完全分布式模式由名台主机组成,各个主机的时间可能存在较大差异。如果时间 异较大,执行MapReduce程序的时候会存在问题。NTP服务通过获取网络时间使集群内不同主机的时间保持一致。默认安装Ubuntu操作系统时,不会安装NTP服务。

在3台主机分别安装NTP服务,命令如下(在安装NTP服务时需连接互联网):

 $ sudo apt-get install ntp

查看时间服务是否运行,如果输出有“ntp"字样,说明NTP正在运行。

$ sudo dpkg -1 | grepntp

6.安装Hadoop

下载hadoop2.7.3的安装包
下载地址:http://archive.apache.org/dist/hadoop/common/hadoop-2.7.3/
Hadoop完全分布模式的搭建
解压安装包

将下载的hadoop-2.7.3.tar.gz文件通过Xftp等工具上依次传到3台Ubuntu的~/soft目录下中。
注意:
Xftp需要先安装,安装方法自行百度,上传成功后ls命令查看有hadoop-2.7.3.tar.gz


 cd ~/soft   #注意:soft目录如果不存在,需要先用mkdir ~/soft命令创建
 ls
hadoop-2.7.3.tar.gz

解压安装包

$ tar -zxvf hadoop-2.7.3.tar.gz

解压后ls查看发现多了一个目录hadoop2.7.3

$ ls
hadoop-2.7.3.tar.gz  hadoop-2.7.3

创建软链接,方便使用

ln -s hadoop-2.7.3 hadoop

配置Linux环境变量

$ nano ~/.bashrc

在文件末尾添加

export HADOOP_HOME=~/soft/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

让环境变量立即生效

$ source ~/.bashrc

另外两台Ubuntu主机node1、node2也按如上安装。

7.设置Hadoop配置文件

在node1主机进行操作。进人node1主机的Hadoop配置文件目录${HADOOP HOME}/ etc/hadoop。

$ cd~/hadoop/etc/hadoop

(1)设置hadoop-env.sh

vi hadoop-env.sh

找到含有export JAVA_HOME=${JAVA_HOME}一行,将等号后面的内容删除,换成JAVA_HOME的绝对路径,

export JAVA_HOME=自己jdk的绝对路径

(2)设置core-site.xml.

$ vi core-site.xml

在<configuration与</configuration之间添加配置内容
添加的配置如下:

	<property>
		<name>fs.defaultFS</name>
		<value>hdfs://node1:8020</value>
        <!-- 以上主机名node1要按实际情况修改 -->
	</property>
	<property>
		<name>hadoop.tmp.dir</name>
 		<value>/home/jsy/soft/hadoop/tmp</value>
 		   <!-- 以上jsy为用户名要修改成自己的 -->
 	</property>

(3)设置hdfs-site.xml。

$ vi hdfs-site.xml

同样在<configuration与</configuration之间添加配置内容,配置内容如下:


  <property>
            <name>dfs.replication</name>
            <value>2</value>
    </property>

(4)配置mapred-site.xml

原来没有mapred-site.xml文件,由mapred-site.xml.template复制出mapred-site.xml

$ cp mapred-site.xml.template mapred-site.xml

配置 mapred-site.xml

vi mapred-site.xml

同样在<configuration与</configuration之间添加配置内容,配置内容如下:

	<property>
		<name>mapreduce.framework.name</name>
		<value>yarn</value>
	</property>

(5) 配置yarn-site.xml

vi yarn-site.xml

同样在<configuration与</configuration之间添加配置内容,配置内容如下:

   <property>
        <name>yarn.resourcemanager.hostname</name>
        <value>node1</value>
    </property>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>

注意:node1为主机名,注意按实际修改。
(6) 配置slaves

vi slaves

将原有内容删除,添加以下内容。

node2
node3

(7)分发配置。
将node1的配置文件分发至node2和node3主机。

$ cd~/hadoop/etc/
$ scp-r hadoop jsy@ node2:~ /hadoop/etc/ 
$ scp-r hadoop jsy@ node3:~ /hadoop/etc/ 

8.格式化HDFS

在nodel主机操作,命令如下:

$ hdfs namenode -format

9.启动Hadoop

启动命令只需在node1主机操作。
采用下面命令分别启动HDFS和YARN。

$ start-dfs.sh
$ start-yarn.sh

或者用以下命令启动HDFS和YARN。

$ start-all.sh

10.验证Hadoop进程

用jps命令分别在所有主机验证。

$ jps

nodel主机包含以下3个进程表示启动Hadoop成功。

$ jps
SecondaryNameNode
NameNode
ResourceManager

在node2和node3主机分别执行jps命令,均包含以下两个进程表示启动Hadoop成功。

$ jps
NodeManager
DataNode

如果某个主机少了某个进程,应该到对应主机去找相关的log查看原因,log存放 在$ {HADOOP_HOME}/logs目录下。例如,node3主机少了DataNode进程,则应该进 人node3主机的${HADOOP_HOME}/logs目录下,查看DataNode相关的log,找到含有 “WARN” Error”"Exception”等的关键字句,通过上网搜索关键字句找到解决问题的 办法。

$ ssh node3
$ cd~ /hadoop-2.7.3/logs
$ cathadoop-hadoop-datanode-node3.log

也可以通过vi命令查看。

$ vi hadoop-hadoop-datanode-nodel.log

最新出现的错误,其信息都在文件末尾。

11.通过Web访问Hadoop

(I) HDFS Web界面。
在Windows的测览器中,输人网址:http://192.168.17.136:50070,可以查看NameNode和 DetaNode信息,如图所示。其中,192.168.30.136表示Master的IP地址,请根据实际 情况修改。
Hadoop完全分布模式的搭建
单击Web页面的Datanodes查看DataNode信息,如图2-32所示,有两个DataNode 正 在运行。
Hadoop完全分布模式的搭建

在 Windows测览器中,输人网址tp://192.168.30.136:5090,可以查看Secondar NameNode信息。
Hadoop完全分布模式的搭建

(2) YARN Web界面。
在Windows的浏览器中,输人网址tp://9161.30.136:8088可以查看集群所有应用 程序的信息,如图2-34所示,可以看到Active Nodes为2,说明集群有两个NodeManage 节点正在运行。
Hadoop完全分布模式的搭建

至此,Hadoop完全分布模式(集群模式)搭建完成。

上一篇:链表(双向链表)


下一篇:从游戏角度了解RxJava