Hadoop安装(YARN 集群)

红太狼 2022-02-28 14:22 433阅读 0赞

前言

在前面的章节中, 我们介绍了Hadoop 安装(单结点). 本章中,我们介绍下Hadoop的集群安装模式.


前置条件

三台VMware虚拟机, 分别为:

  • 192.168.31.60
  • 192.168.31.61
  • 192.168.31.62

其主机名称分别为: sean60/sean61/sean62(配置本机的/etc/hosts/etc/hostname即可.)

  • 三台机器上都已经安装了JDK 1.7+.
  • 并且, 配置了60机器到其他两台机器的免密登陆.
  • 三台机器间防火墙关闭.

正文

我们选择其中一台机器作为Master节点, 其余作为Slave节点.安装架构图大致如下所示:
在这里插入图片描述
基本配置操作步骤如下所示:

  • 分发安装包,设置安装目录解压
    下载官方安装包,并将其分别分发到三个节点上,解压. 本人使用的目录为/opt/apps/hadoop/hadoop-2.7.5.(后文中的安装目录代指此处.)
  • 配置环境变量
    在三台机器上分别配置如下配置, 随后source /etc/profile命令使其生效.

    vi /etc/profile

    export HADOOP_HOME=/opt/apps/hadoop/hadoop-2.7.5
    export HADOOP_MAPRED_HOME=$HADOOP_HOME
    export HADOOP_COMMON_HOME=$HADOOP_HOME
    export HADOOP_HDFS_HOME=$HADOOP_HOME
    export YARN_HOME=$HADOOP_HOME
    export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
    export YARN_CONF_DIR=$HADOOP_HOME/etc/Hadoop

    export PATH=$PATH:$HADOOP_HOME/bin

  • 设置slaves节点
    sean60机器上设置slaves节点.(此设置在使用start-dfs.sh等启动关闭脚本时会用到.)

    salves

    sean61
    sean62

  • 配置通用配置
    三台机器中的通用配置为(配置文件为./etc/hadoop/目录下的文件)

    vi etc/hadoop/core-site.xml



    fs.defaultFS
    hdfs://sean60:9000


    hadoop.tmp.dir
    /usr/local/hadoop-2.7.5/tmp

    vi etc/hadoop/hdfs-site.xml



    dfs.replication
    1

    vi etc/hadoop/mapred-site.xml



    mapreduce.framework.name
    yarn

  • 创建目录并赋予权限

在各节点指定HDFS文件存储的位置(默认是/tmp)
Master节点: namenode

  1. #mkdir -p /usr/local/hadoop-2.7.0/tmp/dfs/name
  2. #chmod -R 777 /usr/local/hadoop-2.7.0/tmp
  3. vi etc/hadoop/hdfs-site.xml
  4. <property>
  5. <name>dfs.namenode.name.dir</name>
  6. <value>file:///usr/local/hadoop-2.7.0/tmp/dfs/name</value>
  7. </property>

Slave节点:datanode

创建目录并赋予权限

  1. #mkdir -p /usr/local/hadoop-2.7.0/tmp/dfs/data
  2. #chmod -R 777 /usr/local/hadoop-2.7.0/tmp
  3. # vi etc/hadoop/hdfs-site.xml
  4. <property>
  5. <name>dfs.datanode.data.dir</name>
  6. <value>file:///usr/local/hadoop-2.7.0/tmp/dfs/data</value>
  7. </property>
  • YARN设置

Master节点: resourcemanager

  1. # vi etc/hadoop/yarn-site.xml
  2. <configuration>
  3. <property>
  4. <name>yarn.resourcemanager.hostname</name>
  5. <value>test166</value>
  6. </property>
  7. </configuration>

Slave节点: nodemanager

  1. # vi etc/hadoop/yarn-site.xml
  2. <configuration>
  3. <property>
  4. <name>yarn.resourcemanager.hostname</name>
  5. <value>test166</value>
  6. </property>
  7. <property>
  8. <name>yarn.nodemanager.aux-services</name>
  9. <value>mapreduce_shuffle</value>
  10. </property>
  11. </configuration>
  • 节点格式化

    hadoop namenode -format

  • 启动HDFS与YARN

    sbin/start-dfs.sh
    sbin/start-yarn.sh

可以使用start-all.sh替代上述两个脚本.

  • 测试

    测试 HDFS

    hdfs dfs -mkdir /user

    hdfs dfs -mkdir /user/Sean

    hdfs dfs -put etc/hadoop/ /user/Sean/

    hdfs dfs -ls /user/Sean/input

    测试YARN

    hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.5.jar wordcount /user/Sean/input output


Reference

[1]. Hadoop系列之(二):Hadoop集群部署
[2]. Hadoop(二)CentOS7.5搭建Hadoop2.7.6完全分布式集群
[3]. hadoop安装和配置

发表评论

表情:
评论列表 (有 0 条评论,433人围观)

还没有评论,来说两句吧...

相关阅读

    相关 Hadoop篇:Hadoop安装

    规划 在搭建Hadoop集群前,我们肯定需要先规划一下集群的各个节点安装的组件。如果你是伪分布式或单机模式,则不需要遵循任何规则,可以随意安装各个组件。如果你是完全分布式

    相关 hadoop 安装

    单机hadoop 集群部署,在单机版基础上进行的,我们需要配置4个机器master,node1,node2,node3 [hadoop单机部署 教程 步骤][hado

    相关 hadoop部署(yarn)

    伴随着各大互联网公司开源自己的大数据框架,大数据处理领域的框架已经比较完善。到现在所谓大数据的框架已经用过habase(后来换成了elasticsearch)、zookeepe