hadoop-3.2.1伪分布集群安装

Myth丶恋晨 2023-02-13 11:18 73阅读 0赞

准备环境:
一台虚拟机(centos7)
ip:192.168.8.124
hostname:hadoop124

一、前提环境准备

1.设置静态ip
在这里插入图片描述
设置好后,需要重启网络

  1. service network restart

2.设置主机名
临时设置主机名
在这里插入图片描述
永久设置主机名
在这里插入图片描述
3.hosts文件配置
在这里插入图片描述
4.关闭防火墙
注意,centos6跟centos7命令不同
临时关闭防火墙

  1. systemctl stop firewalld

永久关闭防火墙

  1. systemctl disable firewalld

5.ssh免密码登录

  1. ssh-keygen -t rsa
  2. #向本机复制公钥
  3. cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

验证
第一次需要输入yes,后续就不用了

  1. ssh hadoop124

6.jdk的安装,略,我在虚拟机上安装的是jdk1.8
在这里插入图片描述

二、正式安装伪分布集群

上面的工作都是前提环境搭建。
官网下载hadoop3.2.1,我解压到了/data/soft/目录,需要配置一个环境变量
在这里插入图片描述
修改环境变量需要执行source /etc/profile让环境变量生效
1.修改hadoop相关配置文件

  1. [root@hadoop124 ~]# cd /data/soft/hadoop-3.2.1/etc/hadoop/
  2. [root@hadoop124 hadoop]# vi core-site.xml
  3. <configuration>
  4. <property>
  5. <name>fs.defaultFS</name>
  6. <value>hdfs://hadoop124:9000</value>
  7. </property>
  8. <property>
  9. <name>hadoop.tmp.dir</name>
  10. <value>/data/hadoop_repo</value>
  11. </property>
  12. </configuration>
  13. [root@hadoop124 hadoop]# vi hdfs-site.xml
  14. <configuration>
  15. <property>
  16. <name>dfs.replication</name>
  17. <value>1</value>
  18. </property>
  19. </configuration>
  20. [root@hadoop124 hadoop]# vi mapred-site.xml
  21. <configuration>
  22. <property>
  23. <name>mapreduce.framework.name</name>
  24. <value>yarn</value>
  25. </property>
  26. </configuration>
  27. [root@hadoop124 hadoop]# vi yarn-site.xml
  28. <configuration>
  29. <property>
  30. <name>yarn.nodemanager.aux-services</name>
  31. <value>mapreduce_shuffle</value>
  32. </property>
  33. <property>
  34. <name>yarn.nodemanager.env-whitelist</name>
  35. <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CL ASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
  36. </property>
  37. </configuration>

修改hadoop-env.sh文件,增加环境变量

  1. export JAVA_HOME=/data/soft/jdk1.8
  2. export HADOOP_LOG_DIR=/data/hadoop_repo/logs/hadoop

2.格式化namenode

  1. [root@hadoop124 hadoop-3.2.1]# pwd
  2. /data/soft/hadoop-3.2.1
  3. [root@hadoop124 hadoop-3.2.1]# bin/hdfs namenode -format

有如下信息,说明格式化成功
在这里插入图片描述
3.启动hadoop集群

  1. [root@hadoop124 hadoop-3.2.1]# sbin/start-all.sh

在这里插入图片描述
报五个变量没有定义,解决方法为
修改start-dfs.sh,stop-dfs.sh这两个脚本,在文件前面增加如下内容:(两个都要加)

  1. #!/usr/bin/env bash
  2. HDFS_DATANODE_USER=root
  3. HDFS_DATANODE_SECURE_USER=hdfs
  4. HDFS_NAMENODE_USER=root
  5. HDFS_SECONDARYNAMENODE_USER=root

修改start-yarn.sh,stop-yarn.sh这两个脚本,在文件前面增加如下内容:(两个都要加)

  1. #!/usr/bin/env bash
  2. YARN_RESOURCEMANAGER_USER=root
  3. HADOOP_SECURE_DN_USER=yarn
  4. YARN_NODEMANAGER_USER=root

再次执行成功了,可以看到有五个进程。
在这里插入图片描述
除了通过jps命令验证,也可以通过webui界面来验证集群服务是否启动成功。
HDFS 的web管理界面: http://192.168.8.124:9870
YARN 的web管理界面: http://192.168.8.124:8088
在这里插入图片描述
在这里插入图片描述
停止集群

在这里插入图片描述

发表评论

表情:
评论列表 (有 0 条评论,73人围观)

还没有评论,来说两句吧...

相关阅读