Hadoop-2.7.6版本集群安装与环境配置

链接:https://pan.baidu.com/s/1t8vDzoFb956TrsfGeq_3uA
提取码:lycc

一、安装之前先检查3虚拟机有没有以下问题

  1、第一台虚拟机

    配置网络

    修改主机名

    关闭防火墙

    配置映射

    安装jdk(删除自带jdk)

  2、克隆两台

    修改主机名

    修改网络

  3、SSH免密

  4、修改启动级别之后重启(关闭虚拟机可视化界面,使用终端界面)

    systemctl set-default multi-user.target

二、安装Hadoop

1、启动三台虚拟机,master,node1,node2,连接xshell,并回到之前拍的redis搭建集群前快照,杀死没有关闭的redis服务,也可以直接回到装完jdk快照直接安装,只要有三台虚拟机集群和配置好的jdk即可

Hadoop-2.7.6版本集群安装与环境配置

 Hadoop-2.7.6版本集群安装与环境配置

 

 Hadoop-2.7.6版本集群安装与环境配置

 

 2、通过xftp上传Hadoop压缩包到/usr/local/module目录下

Hadoop-2.7.6版本集群安装与环境配置

 

Hadoop-2.7.6版本集群安装与环境配置

 3、解压

tar -zxvf hadoop-2.7.6.tar.gz -C /usr/local/soft/

Hadoop-2.7.6版本集群安装与环境配置

 

 Hadoop-2.7.6版本集群安装与环境配置

 

 

3、配置环境变量

export HADOOP_HOME=/usr/local/soft/hadoop-2.7.6

PATH中新加$HADOOP_HOME/bin:$HADOOP_HOME/sbin

保存退出生效

Hadoop-2.7.6版本集群安装与环境配置

Hadoop-2.7.6版本集群安装与环境配置

 

 4、配置Hadoop变量

hadoop 配置文件在/usr/local/soft/hadoop-2.7.6/etc/hadoop/ 

  1.修改slaves  位置/usr/local/soft/hadoop-2.7.6/etc/hadoop/slaves

    删除原有内容

    新加从节点主机名

    node1

    node2

Hadoop-2.7.6版本集群安装与环境配置

Hadoop-2.7.6版本集群安装与环境配置

  2.修改hadoop-env.sh 位置/usr/local/soft/hadoop-2.7.6/etc/hadoop/hadoop-env.sh

    删除export JAVA_HOME=${JAVA_HOME}

    新加export JAVA_HOME=/usr/local/soft/jdk1.8.0_171

Hadoop-2.7.6版本集群安装与环境配置

 

 Hadoop-2.7.6版本集群安装与环境配置

 

  3.修改core-site.xml 位置/usr/local/soft/hadoop-2.7.6/etc/hadoop/core-site.xml

    在core-site.xml标签configuration中复制一下内容

<property>

<name>fs.defaultFS</name>

<value>hdfs://master:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/usr/local/soft/hadoop-2.7.6/tmp</value>

</property>

<property>

<name>fs.trash.interval</name>

<value>1440</value>

</property>

Hadoop-2.7.6版本集群安装与环境配置

  Hadoop-2.7.6版本集群安装与环境配置

 

 

  4.修改hdfs-site.xml 位置/usr/local/soft/hadoop-2.7.6/etc/hadoop/hdfs-site.xml

<property>

    <name>dfs.replication</name>

    <value>1</value>

</property>

<property>

    <name>dfs.permissions</name>

    <value>false</value>

</property>

Hadoop-2.7.6版本集群安装与环境配置

Hadoop-2.7.6版本集群安装与环境配置

 

   5.修改yarn-site.xml 位置/usr/local/soft/hadoop-2.7.6/etc/hadoop/yarn-site.xml

<property>

<name>yarn.resourcemanager.hostname</name>

<value>master</value>

</property>

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<property>

<name>yarn.log-aggregation-enable</name>

<value>true</value>

</property>

<property>

<name>yarn.log-aggregation.retain-seconds</name>

<value>604800</value>

</property>

<property>  

<name>yarn.nodemanager.resource.memory-mb</name>  

<value>20480</value>  

</property>  

<property>  

<name>yarn.scheduler.minimum-allocation-mb</name>  

<value>2048</value>  

</property>  

<property>  

<name>yarn.nodemanager.vmem-pmem-ratio</name>  

<value>2.1</value>  

</property>

Hadoop-2.7.6版本集群安装与环境配置

Hadoop-2.7.6版本集群安装与环境配置

 

 

  6.修改mapred-site.xml 位置/usr/local/soft/hadoop-2.7.6/etc/hadoop/mapred-site.xml

cp /usr/local/soft/hadoop-2.7.6/etc/hadoop/mapred-site.xml.template /usr/local/soft/hadoop-2.7.6/etc/hadoop/mapred-site.xml

Hadoop-2.7.6版本集群安装与环境配置

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

<property>  

<name>mapreduce.jobhistory.address</name>  

<value>master:10020</value>  

</property>  

<property>  

<name>mapreduce.jobhistory.webapp.address</name>  

<value>master:19888</value>  

</property>

Hadoop-2.7.6版本集群安装与环境配置

 

 

  7.hadoop分发到node1和node2

scp -r /usr/local/soft/hadoop-2.7.6 node1:/usr/local/soft

scp -r /usr/local/soft/hadoop-2.7.6 node2:/usr/local/soft

 Hadoop-2.7.6版本集群安装与环境配置

 

 

  8.启动hadoop

在master格式化

hdfs namenode -format

Hadoop-2.7.6版本集群安装与环境配置

 

格式化成功

 Hadoop-2.7.6版本集群安装与环境配置

start-all.sh  启动

Hadoop-2.7.6版本集群安装与环境配置

 

 

查看状态jps

Hadoop-2.7.6版本集群安装与环境配置

 Hadoop-2.7.6版本集群安装与环境配置

 

 Hadoop-2.7.6版本集群安装与环境配置

google浏览器输入master:50070,访问hdfs页面验证是否安装成功

Hadoop-2.7.6版本集群安装与环境配置

 

 

如果安装失败

  stop-all.sh

再次重启的时候

  1、需要手动将每个节点的tmp目录删除: 所有节点都要删除

    rm -rf /usr/local/soft/hadoop-2.7.6/tmp

    然后执行将namenode格式化

  2、在主节点执行命令:

    hdfs namenode -format

  3启动hadoop

    start-all.sh

 

上一篇:centos7clickhouse安装教程以及遇到的坑


下一篇:GitLab install