`
cloudtech
  • 浏览: 4600721 次
  • 性别: Icon_minigender_1
  • 来自: 武汉
文章分类
社区版块
存档分类
最新评论

Hadoop集群(三节点)安装与部署

 
阅读更多

1.2.1环境准备

环境由三台服务器组成,分别为目录节点,内容节点,服务器列表如下所示:

表1 主机环境准备

IP

机器名称

10.0.0.201

m1.hadoop

10.0.0.209

s1.hadoop

10.0.0.211

s2.hadoop

下面列出各主机配置信息:

主机:m1.hadoop

[hadoop@m1 .ssh]$ cat /etc/sysconfig/network-scripts/ifcfg-eth0

DEVICE="eth0"

NM_CONTROLLED="yes"

ONBOOT=yes

TYPE=Ethernet

BOOTPROTO=none

IPADDR=10.0.0.201

PREFIX=24

GATEWAY=10.0.0.254

DEFROUTE=yes

IPV4_FAILURE_FATAL=yes

IPV6INIT=no

NAME="System eth0"

HWADDR=10:50:56:AF:00:CF

[hadoop@m1 .ssh]$ cat /etc/hosts

10.0.0.201 m1.hadoop

10.0.0.209 s1.hadoop

10.0.0.211 s2.hadoop

127.0.0.1 localhost.localdomain localhost

[hadoop@m1 .ssh]$ cat /etc/sysconfig/network

NETWORKING=yes

HOSTNAME=m1.hadoop

FORWARD_IPV4=yes

主机:s1.hadoop

[hadoop@s1 .ssh]$ cat /etc/sysconfig/network-scripts/ifcfg-eth0

DEVICE="eth0"

NM_CONTROLLED="yes"

ONBOOT=yes

HWADDR=10:50:56:AF:00:D4

TYPE=Ethernet

BOOTPROTO=none

IPADDR=10.0.0.209

PREFIX=24

GATEWAY=10.0.0.254

DEFROUTE=yes

IPV4_FAILURE_FATAL=yes

IPV6INIT=no

NAME="System eth0"

[hadoop@s1 .ssh]$ cat /etc/hosts

10.0.0.209 s1.hadoop

10.0.0.201 m1.hadoop

10.0.0.211 s2.hadoop

127.0.0.1 localhost.localdomain localhost

[hadoop@s1 .ssh]$ cat /etc/sysconfig/network

NETWORKING=yes

HOSTNAME=s1.hadoop

主机:s2.hadoop

[hadoop@s2 .ssh]$ cat /etc/sysconfig/network-scripts/ifcfg-eth0

DEVICE="eth0"

NM_CONTROLLED="yes"

ONBOOT=yes

HWADDR=01:50:56:AF:00:D7

TYPE=Ethernet

BOOTPROTO=none

IPADDR=10.0.0.211

PREFIX=24

GATEWAY=10.0.0.254

DEFROUTE=yes

IPV4_FAILURE_FATAL=yes

IPV6INIT=no

NAME="System eth0"

[hadoop@s2 .ssh]$ cat /etc/hosts

10.0.0.211 s2.hadoop

10.0.0.201 m1.hadoop

10.0.0.209 s1.hadoop

127.0.0.1 localhost.localdomain localhost

[hadoop@s2 .ssh]$ cat /etc/sysconfig/network

NETWORKING=yes

HOSTNAME=s2.hadoop

1.2.2Java多机安装

将下载到后java文件传至各主机/home目录中,下面可以进行对其进行安装:

[root@s1 home]# chmod u+x jdk-6u25-linux-x64-rpm.bin

[root@s1 home]# ./jdk-6u25-linux-x64-rpm.bin

1.2.3SSH配置

在每台机器上创建hadoop帐户,在每台机器生成hadoop的的公私钥对,分别将上述公钥对写入到authorized_keys文件之中,将authorized_keys分别分发至各个主机~/.ssh/目录之中即可。

具体设置过程如下所示:

S1.hadoop主机:

[root@ s1 .ssh]# useradd hadoop #创建帐号

[root@ s1 .ssh]# passwd hadoop #配置密码

[root@ s1 .ssh 5]# su hadoop

[hadoop@s1 .ssh]$ssh-keygen

[hadoop@s1 .ssh]$chmod 700 ~/.ssh/

[hadoop@m1 .ssh]$ cat id_rsa.pub >> authorized_keys

[hadoop@m1 .ssh]$ chmod 600 authorized_keys

[hadoop@m1 .ssh]$ scp authorized_keys hadoop@s2.hadoop:/home/hadoop/.ssh/

s2.hadoop主机:

[root@ s2 .ssh]# useradd hadoop #创建帐号

[root@ s2 .ssh]# passwd hadoop #配置密码

[root@ s2 .ssh 5]# su hadoop

[hadoop@s2 .ssh]$ssh-keygen

[hadoop@s2 .ssh]$chmod 700 ~/.ssh/

[hadoop@m2 .ssh]$ cat id_rsa.pub >> authorized_keys

[hadoop@m1 .ssh]$ scp authorized_keys hadoop@m1.hadoop:/home/hadoop/.ssh/

m1.hadoop主机:

[root@ s1 .ssh]# useradd hadoop #创建帐号

[root@ s1 .ssh]# passwd hadoop #配置密码

[root@ s1 .ssh 5]# su hadoop

[hadoop@s1 .ssh]$ssh-keygen

[hadoop@s1 .ssh]$chmod 700 ~/.ssh/

[hadoop@m1 .ssh]$ cat id_rsa.pub >> authorized_keys

[hadoop@m1 .ssh]$ scp authorized_keys hadoop@s1.hadoop:/home/hadoop/.ssh/

[hadoop@m1 .ssh]$ scp authorized_keys hadoop@s2.hadoop:/home/hadoop/.ssh/

1.2.4Hadoop多机安装

Hadoop安装与配置过程见1.1.4节,先在m1.hadoop主机配置hadoop,安装hadoop、配置访问权限、配置环境变量:

具体操作过程(m1.hadoop):

[root@m1 home]# tar xzvf hadoop-0.20.2.tar.gz

[root@ m1home]# mv hadoop-0.20.2 /usr/local

[root@ m1home]# cd /usr/local

[root@ m1local]# ls

bin etc games hadoop-0.20.2 include lib lib64 libexec sbin share src

[root@ m1local]# mv hadoop-0.20.2/ hadoop

[root@ m1local]# mkdir hadoop/Data

[root@ m1local]# mkdir hadoop/Name

[root@ m1local]# mkdir hadoop/Tmp

[root@ m1local]# chmod 777 /var/local

[root@ m1local]# ls

bin etc games hadoop include lib lib64 libexec sbin share src

[root@ m1local]# chown -R hadoop:hadoop /usr/local/hadoop/ #修改权限

[root@m1 conf]# vi core-site.xml

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>

<property>

<name>fs.default.name</name>

<value>hdfs://m1.hadoop:9000</value>

</property>

<property>

<name>hadoop.tmp.dir</name>

<value>/usr/local/hadoop/Tmp</value>

</property>

</configuration>

[root@m1 conf]# vi hdfs-site.xml

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>

<property>

<name>dfs.name.dir</name>

<value>/usr/local/hadoop/Name</value>

</property>

<property>

<name>dfs.data.dir</name>

<value>/usr/local/hadoop/Data</value>

</property>

<property>

<name>dfs.replication</name>

<value>3</value>

</property>

</configuration>

[root@m1 conf]# vi masters

m1.hadoop

[root@m1 conf]# vi slaves

m1.hadoop

s1.hadoop

s2.hadoop

[root@m1 conf]# vi mapred-site.xml

<?xml version="1.0"?>

<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>

<!-- Put site-specific property overrides in this file. -->

<configuration>

<property>

<name>mapred.job.tracker</name>

<value>m1.hadoop:9001</value>

</property>

</configuration>

[root@ m1local]# scp -r /usr/local/hadoop s1.hadoop:/usr/local/

[root@ m1local]# scp -r /usr/local/hadoop s2.hadoop:/usr/local/

(s1.hadoop):

[root@ s1local]# chmod 777 /var/local

(s2.hadoop):

[root@ s2local]# chmod 777 /var/local

1.2.5Hadoop测试

[root@m1 conf]# jps

10209 Jps

9057 SecondaryNameNode

9542 SecondaryNameNode

7217 JobTracker

10087 TaskTracker

9450 DataNode


分享到:
评论

相关推荐

    利用ansible 自动 安装Hadoop 集群

    利用ansible 自动 安装Hadoop 集群

    在docker上部署hadoop集群

    教程:在linux虚拟机下(centos),通过docker容器,部署hadoop集群。一个master节点和三个slave节点。

    Ambari部署Hadoop集群.doc

    对于企业,如果要部署由成千上万的节点组成的Hadoop集群,手工方式部署显然不符合实际。 而由Hortonworks贡献给Apache开源社区的Ambari则提供了搭建整个Hadoop生态的一站式服务。这款软件具有集群自动化安装、中心化...

    论文研究-Hadoop分布式集群的自动化容器部署研究.pdf

    该方法把Ambari及其运行环境和配置构建成Docker镜像,并把多节点容器的运行和Hadoop集群的部署过程写成Shell脚本,只需一条命令,即可实现集群的自动化部署。实验结果表明,该方法简单可靠并极大地提高了集群部署的...

    Hadoop集群部署实例

    由于工作需要,最近一段时间开始接触学习 Hadoop 相关的东西,目前公司的实时任务和离线任务都跑在一个 Hadoop 集群,离线 任务的特点就是每天定时跑,任务跑完了资源就空闲了,为了合理的利用资源,我们打算在搭一...

    部署Hadoop3.0高性能集群.docx

    部署Hadoop3.0高性能集群,Hadoop完全分布式模式: Hadoop的守护进程分别运行在由多个主机搭建的集群上,不同 节点担任不同的角色,在实际工作应用开发中,通常使用该...下面,阐述完全分布模式Hadoop集群的安装与配置方法。

    hadoopcluster-ansible:它包含Ansible Playbook和角色,可通过AWS部署Hadoop多节点集群

    该存储库包含Ansible Playbook和角色,以通过AWS EC2实例部署Hadoop多节点集群。 角色扮演- 角色名称 角色描述 awsInfra4Hadoop 为Hadoop MultiNode Cluster创建AWS基础架构 Hadoop名称节点 配置Hadoop名称节点 ...

    hadoop集群部署.docx

    hadoop作为大数据平台,经常需要部署集群,文档非常详细地介绍了hadoop集群的部署过程,两个节点master和slave

    基于hadoop对某网站日志分析部署实践课程设计报告参考模板.doc

    首先开启Hadoop集群:start-all.sh:开启所有的Hadoop所有进程,在主节点上进行 NameNode它是Hadoop 中的主服务器,管理文件系统名称空间和对集群中存储的文件的访问。 Secondary NameNode.....

    CentOS7下Hadoop3.2.1集群的安装与部署(上)

    本篇文章将详细介绍如何在CentOS7服务器上安装并配置Hadoop3.2.1高可用集群。  Hadoop-HA集群的节点规划如下: IP Address Host Name Node Type User Name 172.16.250.234 DN1/JN1 DataNode/...

    Hadoop快速部署工具 EasyHadoop.zip

    界面化一键安装部署管理hadoop集群。 5.支持64位 linux 操作系统. 特别是 redhat centos 5 6 6.五种秒级监控图表,实时查看节点服务器内存,硬盘,CPU,MR状态,负载状态,及时发现问题。 7.支持配置推送,hosts...

    Hadoop大数据平台构建、规划大数据平台集群教学课件.pptx

    Hadoop集群的三种模式 单机模式 在单机上运行。 没有分布式文件系统,直接读写本地操作系统。 伪分布模式 在单机上运行。 使用分布式文件系统。 hadoop集群只有一个节点,因此hdfs的块复制将限制为单个副本。 在单个...

    大数据hadoop集群部署-最详细的部署-2.8.5.pdf

    HDFS HA通常由两个NameNode组成,一个处于Active状态,另一个处于Standby状态。Active NameNode对外提供服务,而...Zookeeper的作用是负责HDFS中NameNode主备节点的选举,和YARN框架下ResourceManaer主备节点的选举。

    看懂Hadoop集群原理与实现方式

    在Hadoop部署中,有三种服务器角色,他们分别是客户端、Masters节点以及Slave节点。Master节点,Masters节点又称主节点,主节点负责监控两个核心功能:大数据存储(HDFS)以及数据并行计算(Map

    Hadoop集群搭建教程1

    1. 检查ntp包是否安装 2. 设置时间配置文件 3. 设置BIOS与系统时间同步 4. 启动ntp服务并测试 1. 手动同步 2. 定时同步 1. 检查nt

    zookeeper+hadoop+hbase+hive(集成hbase)安装部署教程(超详细).docx

    3.集群能正常运行的条件是集群可节点宕机数应保证有超过集群机器总数一半的机器在运行,因此从经济和实用性来说,集群的节点一般是奇数个,本文部署4台机器,其容灾能力与部署3台机器一致,即只能宕机1台

    AIX安装hadoop集群步骤及注意项

    安装AIX hadoop集群注意项,与在suse上安装稍有不同。

    HadoopHA集群部署、ZooKeeper安装与配置教学课件.pptx

    ZooKeeper安装与配置;基础环境配置;任务一 上传安装包到第1个Zookeeper节点并解压;任务二 编辑Zookeeper配置文件;任务三 创建zkdata和zkdatalog文件夹;任务四 设置Zookeeper节点对应的ID(myid);任务五 配置...

    Docker部署本地以及集群hadoop.zip

    资料目录如下: 1. 制作docker基础镜像-01 2. 制作支持ssh的docker镜像-centos7_ssh-01 ...4. 构建基于docker的单节点的HDFS集群-01 5. docker容器跨物理节点通信-01 ...Docker一键部署hadoop分布式.zip

    手把手教你搭建分布式Hadoop集群视频教程(视频+讲义+笔记+软件+配置)

    手把手教你搭建分布式Hadoop家族集群视频教程(视频+讲义+笔记+配置),内容包括 Hadoop,SQOOP,Hive,Hbase的安装配置及集群搭建。内容包括但不限于: ... 14_分布式集群搭建:HADOOP分布式集群安装部署测试 ......

Global site tag (gtag.js) - Google Analytics