HBase 分布式集群搭建手记

缺乏、安全感 2021-09-23 00:20 518阅读 0赞

摘要

由于HBase的数据是存放在HDFS上的,HBase依赖于Hadoop环境,搭建HBase集群环境前需要搭建好Hadoop集群环境,并且这里使用独立的Zookeeper进行集群管理,所以也需要单独安装Zookeeper。

整个安装步骤大致为以下几步:

  • 环境介绍
  • 基础环境配置
  • Hadoop 安装
  • Zookeeper 安装
  • HBase 安装

一、环境介绍

1.1 软件准备

本次搭建使用的软件版本清单:

  • Linux: CentOS 6 64bit
  • Hadoop: hadoop-2.5.1
  • Zookeeper: zookeeper-3.4.13
  • HBase: hbase-1.2.8

软件下载地址: 访问中科大源 http://mirrors.ustc.edu.cn/ 获取所需安装镜像。

1.2 Host与服务

本次搭建使用的服务器列表及所需安装软件:

  • server01(192.168.11.10): HDFS NameNode, HBase Master
  • server02(192.168.11.11): Zookeeper, HDFS DataNode, HBase RegionServer
  • server03(192.168.11.12): Zookeeper, HDFS DataNode, HBase RegionServer
  • server04(192.168.11.13): Zookeeper, HDFS DataNode, HBase RegionServer

二、基础环境配置

*:表示每台机器都要配置

1. 创建新用户及用户组*

  1. $ sudo groupadd hadoop # 创建hadoop用户组
  2. $ sudo useradd -g hadoop hadoop # 在hadoop用户组中添加hadoop用户
  3. $ sudo passwd hadoop # 给用户hadoop设置密码
  4. $ sudo visudo # 将hadoop账号添加到sudo列表
  5. hadoop ALL=(ALL) NOPASSWD:ALL

注意:以下操作在 hadoop 账号下进行, 使用 su - hadoop 切换到 hadoop 账号

2. 安装JDK*

  1. $ yum install java-1.8.0-openjdk-devel # 安装jdk
  2. $ rpm -qa | grep java # 查看安装了哪些包
  3. $ rpm -ql # java包名 查看安装的位置
  4. # 在 /etc/profile 文件中配置 Java 环境
  5. $ sudo vim /etc/profile
  6. JAVA_HOME=/etc/alternatives/jre_1.8.0_openjdk
  7. CLASSPATH=$CLASSPATH:$JAVA_HOME/lib:$JAVA_HOME/jre/lib:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar
  8. PATH=$PATH:$JAVA_HOME/bin:$JAVA_HOME/jre/bin
  9. export PATH JAVA_HOME CLASSPATH

3. 配置 host 文件*

确保所有主机都能正确的解析自己以及集群内其它所有主机的主机名。

  1. $ sudo vim /etc/hosts # 设置hosts
  2. 192.168.11.10 server01
  3. 192.168.11.11 server02
  4. 192.168.11.12 server03
  5. 192.168.11.13 server04

4. 配置 SSH 无密登录*

Hadoop需要使用SSH协议,namenode使用SSH无密码登录并启动datanode进程,同样原理,datanode上也能使用SSH无密码登录到namenode(这样也能在datanode上进行启动或关闭hadoop)。 Namenode作为客户端,要实现无密码公钥认证,连接到服务器端datanode上时,需要在namenode上生成一个密钥对,包括一个公钥和一个私钥,而后将公钥复制到datanode上。当namenode通过ssh连接datanode时,datanode就会生成一个随机数并用namenode的公钥对随机数进行加密,并发送给namenode。Namenode收到加密数之后再用私钥进行解密,并将解密数回传给datanode,datanode确认解密数无误之后就允许namenode进行连接了,期间不需要用户输入密码。

在server01上建立hadoop用户的授信证书

  1. $ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
  2. # -t 表示生成算法 有两种rsa和dsa, -P 表示使用的密码,''表示无密码
  3. $ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
  4. # 将id_dsa.pub的内容追加到authorized_keys的内容后面
  5. $ chmod 644 ~/.ssh/authorized_keys # 设置该文件的读写权限

在server02上建立hadoop用户的授信证书

  1. $ ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
  2. $ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys
  3. $ chmod 644 ~/.ssh/authorized_keys
  4. # 使用 SCP 将server01的公钥追加到本机authorized_keys后面
  5. $ sudo scp -r hadoop@server01:/home/hadoop/.ssh/id_dsa.pub /hoodap/home/.ssh/master_dsa.pub
  6. $ cat ~/.ssh/master_dsa.pub >> ~/.ssh/authorized_keys

这样server01就可以通过ssh无密码登录server02机器,但是server02无法登录server01。想要server02可以登录到server01,则需要将server02的公钥追加到server01的authorized_keys中。

  1. server01上进行以下操作
  2. $ sudo scp -r hadoop@server02:/home/hadoop/.ssh/id_dsa.pub /hoodap/home/.ssh/server02_dsa.pub
  3. $ cat ~/.ssh/server02_dsa.pub >> ~/.ssh/authorized_keys

其他server的操作同上。

5. 配置打开文件的最大句柄数*

防止 HDFS too many open files 异常,本脚本设置为 32768

  1. $ sudo vim /etc/security/limits.conf
  2. * - nofile 32768 # 添加此行

6. 关闭 SELinux*

关闭 SELinux,使其状态为 disabled,启用时可能限制 SSH 免密登录。

  1. $ sudo vim /etc/selinux/config # Selinux的配置文件位置
  2. SELINUX=disabled

7. 关闭防火墙*

  1. $ service iptables stop
  2. $ chkconfig iptables off

8. 配置 NTP 服务*

  1. # 下载ntp
  2. $ sudo yum install ntp
  3. # 设置为开机启动
  4. $ chkconfig --add ntpd
  5. $ chkconfig ntpd on
  6. # 启动ntp
  7. $ service ntpd start

9. 配置 swappiness*

使 vm.swappiness= 0,以避免使用swap分区。

  1. $ cat /etc/sys/vm/swappiness # 查swappiness的值
  2. $ sudo sysctl -p # 查swappiness的值
  3. $ sudo vim /etc/sysctl.conf # 修改swappiness的值
  4. vm.swappiness= 0

10. 禁用透明大页面压缩*

  1. $ sudo vim /etc/rc.local
  2. if test -f /sys/kernel/mm/transparent_hugepage/enabled; then
  3. echo never > /sys/kernel/mm/transparent_hugepage/enabled
  4. fi
  5. if test -f /sys/kernel/mm/transparent_hugepage/defrag; then
  6. echo never > /sys/kernel/mm/transparent_hugepage/defrag
  7. fi

三、Hadoop安装

1. 上传 hadoop 安装文件到server01上,并解压

  1. # 创建hadoop软件的安装目录
  2. $ sudo mkdir /opt/hadoop
  3. # 在 /opt/hadoop 目录下解压 hadoop 文件
  4. $ sudo tar -zvxf hadoop-2.5.1.tar.gz

2. 修改 /etc/profile 文件*

  1. $ sudo vim /etc/profile
  2. HADOOP_HOME=/opt/hadoop/hadoop-2.5.1
  3. CLASSPATH=$CLASSPATH:$HADOOP_HOME/src/core
  4. HADOOP_PATH=$HADOOP_HOME/bin
  5. PATH=$PATH:$CLASSPATH:$HADOOP_PATH:$HADOOP_HOME/bin:$HADOOP_HOME/src/core
  6. HADOOP_CLASSPATH=$HADOOP_HOME/build
  7. export PATH CLASSPATH HADOOP_HOME HADOOP_CLASSPATH HADOOP_PATH
  8. $ source /etc/profile # 使配置文件生效
  1. 修改Hadoop的配置文件

cd /opt/hadoop/hadoop-2.5.1/etc/hadoop/ 进入hadoop配置文件处

修改hadoop的以下5个配置文件 hadoop-env.sh、core-site.xml、mapred-site.xml、hdfs-site.xml、slaves。

  • hadoop-env.sh

    $ sudo vim hadoop-env.sh
    export JAVA_HOME = /etc/alternative/jre_1.8.0_openjdk

  • core-site.xml

    $ sudo vim core-site.xml



    fs.default.name
    hdfs://127.0.0.1:9000



    fs.default.name
    hdfs://server01:9000



    hadoop.tmp.dir
    /opt/hadoop/hadoop-2.5.1/hadooptmp/hadoop${user.name}

  • mapred-site.xml
    在高版本的hadoop中并没有mapred-site.xml文件,但是有一个mapred-site.xml.template文件,可以把它复制一下。

    $ sudo cp mapred-site.xml.template mapred-site.xml
    $ sudo vim mapred-site.xml



    mapred.job.tracker
    server01:9001

  • hdfs-site.xml

    $ sudo vim hdfs-site.xml


    // 文件块的副本数,一般不大于从机数
    dfs.replication
    2


    // hdfs的http访问位置
    dfs.http.address
    server01:50070

  • slaves

    $ sudo vim slaves
    server02
    server03
    server04

4. 使用 SCP 将配置好的 hadoop 文件复制到其他节点上

将安装的/opt/hadoop/hadoop-2.5.1文件复制到其他节点上

  1. # 复制到server02的home目录下
  2. $ scp -r hadoop-2.5.1 hadoop@server02:~
  3. $ sudo mv hadoop-2.5.1 /opt/hadoop
  4. # 其他server同上

注意:在各个server上执行 sudo chown -R hadoop:hadoop /opt/hadoop/ 设置读写权限(用于log的写入)

5. 格式化一个 namenode

  1. hadoop的安装目录下 ./bin/hdfs namenode -format

6. 启动 hadoop

  1. ./sbin/start-hdfs.sh

7. GUI 查看hadoop集群信息

默认地址:
NameNode:http://server01:50070
JobTracker: http://server01:50030

四、搭建Zookeeper集群

安装位置:server02,server03,server04

1. 上传 zookeeper 安装文件到server02上,并解压

  1. # 创建zookeeper安装目录
  2. $ sudo mkdir /opt/zookeeper
  3. # 在 /opt/zookeeper 目录下解压文件
  4. $ sudo tar -zvxf zookeeper-3.4.13

2. 配置zoo.cfg文件,将zoo_sample.cfg 文件复制一份

  1. # 进入 /opt/zookeeper/zookeeper-3.4.13/conf 目录,修改zoo.cfg
  2. $ sudo cp zoo_sample.cfg zoo.cfg
  3. $ sudo vim zoo.cfg
  4. #the number of milliseconds of each tick
  5. tickTime=2000
  6. #the number of ticks that the initial synchronization phase can take
  7. initLimit=10
  8. #the number of ticks that can pass between sending a request and getting an acknowledgement
  9. syncLimit=5
  10. #the directory where the snapshot is stored
  11. // 修改存储快照文件目录
  12. dataDir=/home/opt/zookeeper/zookeeper-3.4.13/zookeeper_datastore
  13. #the port at which the client will connect
  14. clientPort=2181
  15. #maxClientCnxns=0
  16. // 这里server.x中的x是一个数字,与myid文件中的id是一致的
  17. server.1=server02:2888:3888
  18. server.2=server03:2888:3888
  19. server.3=server04:2888:3888

3. 创建 zookeeper_datastore 文件存放myid

  1. $ sudo mkdir -p /opt/zookeeper/zookeeper-3.4.13/zookeeper_datastore
  2. $ sudo vim /opt/zookeeper/zookeeper-3.4.13/zookeeper_datastore/myid
  3. 1

4. 修改 /etc/profile 配置文件

  1. $ sudo vim /etc/profile
  2. ZOOKEEPER_HOME=/opt/zookeeper/zookeeper-3.4.13
  3. PATH=$PATH:$ZOOKEEPER_HOME/bin
  4. export PATH ZOOKEEPER_HOME

5. 将配置好的zookeeper文件分发到其他节点(server03,server04)

  1. $ scp -r zookeeper-3.4.13 hadoop@server03:~
  2. $ sudo mv zookeeper-3.4.13 /opt/zoookeeper

6. 修改其他server的myid

  1. $ sudo vim /opt/zookeeper/zookeeper-3.4.13/zookeeper_datastore/myid
  2. 2

注意:在各个server上执行 sudo chown -R hadoop:hadoop /opt/zookeeper 设置读写权限(用于log的写入)

7. 启动每台server上的zookeeper

  1. # 启动 zookeeper
  2. $ /opt/zookeeper/zookeeper-3.4.13/bin/zkServer.sh start
  3. # 启动 zookeeper 时可以查看启动信息
  4. $ /opt/zookeeper/zookeeper-3.4.13/bin/zkServer.sh start-foreground
  5. # 查看状态
  6. $ /opt/zookeeper/zookeeper-3.4.13/bin/zkServer.sh status

五、HBase集群搭建

1. 上传 hbase 安装文件到server01上,并解压

  1. # 创建 hbase 安装目录
  2. $ sudo mkdir /opt/hbase
  3. # 在 /opt/hbase 目录下安装文件
  4. $ sudo tar -zvxf hbase-1.2.8-bin.tar.gz

2. 修改hbase的配置文件

在 /opt/hbase/hbase-1.2.8/conf 目录下,修改 hbase-env.sh、hbase-site.xml、regionservers。

  • hbase-env.sh

    $ sudo vim hbase-env.sh
    export JAVA_HOME = /etc/alternative/jre_1.8.0_openjdk
    export HBASE_MANAGES_ZK=false

  • hbase-site.xml

    $ sudo vim hbase-site.xml



    hbase.rootdir
    hdfs://server01:9000/hbase



    hbase.cluster.distributed
    true



    hbase.master.port
    60000



    hbase.zookeeper.quorum
    server02,server03,server04

  • regionservers

    $ sudo vim regionservers
    server02
    server03
    server04

3. 修改 /etc/profile 配置文件*

  1. $ sudo vim /etc/profile
  2. HBASE_HOME = /opt/hbase/hbase-1.2.8
  3. PATH=$PATH:$HBASE_HOME
  4. export HBASE_HOME PATH

4. 将安装文件 hbase-1.2.8 分发到其他节点

  1. $ scp -r hbase-1.2.8 server02:~
  2. # 移动到 /opt/hbase 目录下
  3. $ sudo mv hbase-1.2.8 /opt/hbase
  4. 其他server操作同上。

注意:在各个server上执行 sudo chown -R hadoop:hadoop /opt/hbase 设置读写权限(用于log的写入)

5. 启动hbase

  1. $ /opt/hbase/hbase-1.2.8/bin/start-hbase.sh

GUI 查看 hbase 集群信息

默认地址:http://server01:16010

六、总结

HBase集群的搭建步骤比较固定且繁琐,在进行操作时务必认真仔细。此文档主要是在公司进行HBase集群搭建时进行的整理,并且在搭建过程中得到了导师@Kent的指导与帮助,特此感谢!

发表评论

表情:
评论列表 (有 0 条评论,518人围观)

还没有评论,来说两句吧...

相关阅读

    相关 hbase

    1.上传hbase安装包(测试使用的是hbase1.2.3) 2.解压 3.配置hbase集群,要修改3个文件(首先zk集群已经安装好了) 注意:要把hadoop的hd