四时宝库

程序员的知识宝库

Linux系统部署hadoop集群超详细版

Linux系统部署hadoop集群超详细版

Hadoop是一个由Apache基金会所开发的分布式系统基础架构,一个能够对大量数据进行分布式处理的软件框架; Hadoop以一种可靠、高效、可伸缩的方式进行数据处理;用户可以在不了解分布式底层细节的情况下,开发分布式程序。

Linux系统:centos 7.4

JDL:jdk 1.8

Hadoop:Hadoop2.7.7

虚拟机:VMware Workstation 12 pro

本机系统: Windows 10

Master主机:192.2168.1.180

S1主机:192.168.1.181

S2主机:192.168.1.182


安装前准备工作:

1.更新YUM源

#yum -y update

2.关闭防火墙

#systemctl disable firewalld

3.关闭安全内核

#vim /etc/selinux/config

SELINUX=disabled

4.修改主机名

#hostnamectl set-hostname master

vim /etc/hosts

192.168.1.180 master

192.168.1.181 s1

192.168.1.182 s2

5.安装时间同步器

本次同步上海时区的时间

下载时间同步模块yum -y install ntpdate

连接远程服务器 ntpdate -u time1.aliyun.com

修改文件 ntpdate -u ntp.api.bz

查看系统时间 hwclock --show

查看硬件时间 hwclock -w

永久保存 date

6.制作免密码登陆

分别在3台主机中执行

输入ssh-keygen -t rsa,然后确认回车

(1)在master主机中输入

ssh-copy-id master ssh-copy-id s1 ssh-copy-id s2

(2)在s1主机中输入

#ssh-copy-id master ssh-copy-id s2

(3)在s2主机中输入

#ssh-copy-id master ssh-copy-id s1

(4)测试ssh登录

一、安装JDK 1.8

1.官网下载

jdk-8u101-linux-x64.tar.gz

2.上传到服务器tools目录及解压

#mkdir /usr/local/java 创建路径

#tar -zxvf jdk-8u101-linux-x64.tar.gz -C /usr/local/java

3.修改环境变量(重要,仔细仔细仔细)

#vim /etc/profile

添加如下内容:

export JAVA_HOME=/usr/local/java/jdk1.8.0_101

export JRE_HOME=$JAVA_HOME/jre

export PATH=$JAVA_HOME/bin:$PATH

export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

#source /etc/profile 立刻刷新

4.测试验证

二、安装Hadoop及配置文件修改

1.官网下载

https://hadoop.apache.org/

2.上传解压

#tar zxvf hadoop-2.7.7.tar.gz -C /usr/local

3.配置文件修改(/usr/local/hadoop-2.7.7/etc/hadoop)

(1)修改hadoop-env.sh

(2)修改yarn-env.sh

(3)修改core-site.xml

(4)配置文件系统hdfs-site.xml

(5)配置计算框架mapred-site.xml

(6)配置文件系统yarn-site.xml

(7)修改slave

(8)将master上hadoop目录分发到s1/s2上

将 master 上的 hadoop-2.7.7文件夹复制到s1,s2上。

依次运行以下命令:

scp -r /usr/local/hadoop-2.7.7 root@s1:/usr/local/

scp -r /usr/local/hadoop-2.7.7 root@s2:/usr/local/

检查s1/s2是否拷贝过去

4.配置环境变量

vim /root/.bash_profile

PATH=$PATH:$HOME/bin

export JAVA_HOME=/usr/local/java/jdk1.8.0_101

export PATH=$JAVA_HOME/bin:$PATH

export HADOOP_HOME=/usr/local/hadoop-2.7.7

export PATH=$PATH:${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:

然后执行命令 source /root/.bash_profile 使配置生效

重复上述操作将s1,s2虚拟机的环境变量也配置成这样。

5.格式化系统

该命令只能在master上执行,且只能执行一次,不可多次执行。

hdfs namenode -format

三、启动Hadoop集群

1.在master上启动

#start-all.sh

根据提示信息,输入yes

2.测试访问,查看端口启动情况

192.168.1.180:50070

备注:点开livenodes查看现在是否有3台节点同时在线,如果不是3台,则说明配置有问题,需要重新排错,按照教程前面内容仔细检查,如果显示是3台主机在线,则表明配置成功。

3.执行jps命令查看master/s1/s2进程

完成时间:2022年8月17日,本地安装验证OK


原创声明:本文章是本人在今日头条的原创内容,如需转载请注明来源和原作者。

大家如果在头条号有电脑日常问题,可以在下方评论,看到后会第一时间回复大家。

作者: IT小乙班

关注【IT小乙班】头条号,每天收获最实战的电脑技能干货。

如果你喜欢我的文章,不妨点赞、转发、收藏一下哦!

发表评论:

控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言
    友情链接