hadoop完全分布式环境搭建

灰太狼 2022-05-19 08:52 406阅读 0赞

1,设置Java环境

复制代码

  1. rpm -ivh jdk-8u73-linux-x64.rpm
  2. 添加环境变量到启动文件
  3. vi /etc/profile
  4. export JAVA_HOME=/usr/java/jdk1.8.0_73
  5. export PATH=$JAVA_HOME/bin:$PATH
  6. export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tool.jar

测试java环境

  1. [root@DEV ~]# more test.java
  2. public class test{
  3. public static void main(String args[]){
  4. System.out.println("A new jdk test...sqing!");
  5. }
  6. }

javac test.java

[root@hadoop1 ~]# java test
A new jdk test…sqing!

看到这,表明java环境设置成功!

2,配置hosts

192.168.1.208 hadoop1
192.168.1.210 hadoop2

3,配置ssh无密登录

复制代码

  1. [root@hadoop1 ~]# ssh-keygen -t rsa -P ""
  2. Generating public/private rsa key pair.
  3. Enter file in which to save the key (/root/.ssh/id_rsa):
  4. Created directory '/root/.ssh'.
  5. Your identification has been saved in /root/.ssh/id_rsa.
  6. Your public key has been saved in /root/.ssh/id_rsa.pub.
  7. The key fingerprint is:
  8. 0d:23:95:a0:7a:ce:78:ef:5b:a8:ab:35:53:01:91:85 root@hadoop1
  9. The key's randomart image is:
  10. +--[ RSA 2048]----+
  11. | o=o... |
  12. | Eo .. |
  13. | . o o |
  14. | . o + |
  15. | . . . S . |
  16. | = . . |
  17. | . B . . |
  18. | o = . |
  19. | ..oo+. |
  20. +-----------------+
  21. [root@hadoop1 ~]# cat .ssh/id_rsa.pub >>.ssh/authorized_keys
  22. [root@hadoop1 ~]# ssh localhost
  23. The authenticity of host 'localhost (::1)' can't be established.
  24. RSA key fingerprint is 19:09:80:d2:03:1a:d0:1d:00:79:33:ea:4e:71:e0:eb.
  25. Are you sure you want to continue connecting (yes/no)? yes
  26. Warning: Permanently added 'localhost' (RSA) to the list of known hosts.
  27. Last login: Wed Mar 9 19:28:12 2016 from 192.168.1.3

复制代码

copy authorized_keys到其它机器上,便可以实现无密登录其它机器

[root@hadoop1 ~]# ssh 192.168.1.210
Last login: Wed Mar 9 19:43:20 2016 from 192.168.1.3
[root@hadoop2 ~]#

下面便是解压,移动,hadoop

配置文件1:hadoop-env.sh

该文件是hadoop运行基本环境的配置,需要修改的为java虚拟机的位置。

/usr/local/hadoop/etc/hadoop

70

配置文件2:yarn-env.sh

该文件是yarn框架运行环境的配置,同样需要修改java虚拟机的位置。

70 1

配置文件3:slaves

该文件里面保存所有slave节点的信息

70 2

配置文件4:core-site.xml

复制代码

复制代码



hadoop.tmp.dir
/data/hadoop-${user.name}


fs.default.name
hdfs://hadoop1:9000

复制代码

这个是hadoop的核心配置文件,这里需要配置的就这两个属性,fs.default.name配置了hadoop的HDFS系统的命名,位置为主机的 9000端口;hadoop.tmp.dir配置了hadoop的tmp目录的根位置。这里使用了一个文件系统中没有的位置,所以要先用mkdir命令新 建一下。

配置文件5:hdfs-site.xml

复制代码



dfs.http.address
hadoop1:50070



dfs.namenode.secondary.http-address
hadoop1:50090



dfs.replication
1

复制代码

这个是hdfs的配置文件,dfs.http.address配置了hdfs的http的访问位置;dfs.replication配置了文件块的副本数,一般不大于从机的个数。

配置文件6:mapred-site.xml

复制代码



mapred.job.tracker
hadoop1:9001



mapred.map.tasks
20



mapred.reduce.tasks
4



mapreduce.framework.name
yarn



mapreduce.jobhistory.address
hadoop1:10020


mapreduce.jobhistory.webapp.address
hadoop1:19888

复制代码

配置文件7:yarn-site.xml

复制代码





yarn.resourcemanager.address
hadoop1:8032



yarn.resourcemanager.scheduler.address
hadoop1:8030



yarn.resourcemanager.webapp.address
hadoop1:8088



yarn.resourcemanager.resource-tracker.address
hadoop1:8031



yarn.resourcemanager.admin.address
hadoop1:8033



yarn.nodemanager.aux-services
mapreduce_shuffle



yarn.nodemanager.aux-services.mapreduce.shuffle.class
org.apache.hadoop.mapred.ShuffleHandler

复制代码

将配置好的hadoop复制到其他节点

scp -r hadoop/ root@hadoop2:~/

复制代码

格式化namenode:

./bin/hdfs namenode -format

若出现如图所示提示,则格式化成功

70 3

复制代码

出现图示部分,则表示成功!

复制代码

启动hdfs: ./sbin/start-dfs.sh

此时在Master上面运行的进程有:namenode secondarynamenode

Slave1和Slave2上面运行的进程有:datanode

启动yarn: ./sbin/start-yarn.sh

此时在Master上面运行的进程有:namenode secondarynamenode resourcemanager

Slave1和Slave2上面运行的进程有:datanode nodemanager

复制代码

http://192.168.1.208:50070

复制代码

70 4

复制代码

http://192.168.1.208:8088

复制代码

70 5

复制代码

end!

发表评论

表情:
评论列表 (有 0 条评论,406人围观)

还没有评论,来说两句吧...

相关阅读

    相关 Hadoop完全分布式

    (比较简单在这里就不逐步截图了) Hadoop单机以及伪分布式和完全分布式的环境搭建详细步骤 一、首先确保网络,确保虚拟机能ping通本机电脑。 以下为IP配置文件

    相关 Hadoop完全分布式环境

    搭建完全分布式环境是在会先搭建单节点的伪分布式环境上面进行的,先拷贝一份伪分布式的hadoop安装程序,jdk安装之类的就先不讲了,然后再伪分布式环境上对配置文件进行修改,