大数据系列(2)之hadoop集群安装
作者头像
  • 芯华集成电路人才基地
  • 2021-07-02 13:04:35 10

安装Hadoop的步骤

最近比较忙,所以这篇文章推迟了一段时间才完成。趁着假期,我们来详细讲解如何在CentOS 7系统上安装和配置Hadoop集群。

准备工作

需要至少四台运行CentOS 7系统的服务器。可以通过VMware虚拟机模拟,如果宿主机性能良好,这种方式非常方便。如有需要,可以提供关于如何在VMware上安装CentOS 7以及克隆多台系统的教程。

下载Hadoop

  1. 创建Hadoop文件夹 cd /usr/ mkdir softInstall cd softInstall mkdir hadoop

  2. 下载Hadoop文件 使用wget命令下载Hadoop压缩包: wget https://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-3.3.0/hadoop-3.3.0.tar.gz 如果系统中没有wget,可以通过yum install wget命令安装。

  3. 解压Hadoop文件 tar -zxvf hadoop-3.3.0.tar.gz 解压后的文件夹名为hadoop-3.3.0

配置Hadoop

  1. 修改hadoop-env.sh cd hadoop-3.3.0/etc/hadoop/ vi hadoop-env.sh 添加以下内容: bash export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.292.b10-1.el7_9.x86_64 export HADOOP_CONF_DIR=/usr/softInstall/hadoop/hadoop-3.3.0/etc/hadoop

  2. 配置core-site.xml 编辑core-site.xml文件: xml <configuration> <property> <name>fs.default.name</name> <value>hdfs://192.168.3.7:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/usr/softInstall/hadoop/tmp</value> </property> </configuration>

  3. 配置hdfs-site.xml 编辑hdfs-site.xml文件: xml <configuration> <property> <name>dfs.namenode.secondary.http-address</name> <value>192.168.3.8:9001</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/usr/softInstall/hadoop/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/usr/softInstall/hadoop/dfs/data</value> </property> <property> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property> <property> <name>dfs.namenode.datanode.registration.ip-hostname-check</name> <value>false</value> </property> </configuration>

  4. 配置yarn-site.xml 编辑yarn-site.xml文件: xml <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.resourcemanager.hostname</name> <value>192.168.3.7</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> <property> <name>yarn.nodemanager.vmem-check-enabled</name> <value>false</value> </property> </configuration>

  5. 配置mapred-site.xml 编辑mapred-site.xml文件: xml <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>

  6. 配置workers文件 编辑workers文件: bash vi /usr/softInstall/hadoop/hadoop-3.3.0/etc/hadoop/workers 删除localhost,添加所有从节点的IP地址。

复制配置到其他节点

通过以下命令将本机的Hadoop配置复制到其他几台服务器上: bash scp -r /usr/softInstall/hadoop root@192.168.236.131:/usr/softInstall scp -r /usr/softInstall/hadoop root@192.168.236.129:/usr/softInstall scp -r /usr/softInstall/hadoop root@192.168.236.130:/usr/softInstall

配置环境变量

编辑/etc/profile文件,添加以下内容: bash export HADOOP_HOME=/usr/softInstall/hadoop/hadoop-3.3.0 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin 使配置生效: bash source /etc/profile

启动Hadoop

  1. 格式化HDFS: bash hdfs namenode -format

  2. 启动HDFS: bash start-dfs.sh

  3. 启动YARN: bash start-yarn.sh

配置免密码登录

  1. 生成SSH密钥: bash ssh-keygen -t rsa

  2. 分发公钥: bash ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.3.7 ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.3.8 ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.3.9 ssh-copy-id -i ~/.ssh/id_rsa.pub root@192.168.3.10

  3. 复制公钥到其他节点: bash scp /root/.ssh/authorized_keys root@192.168.3.8:/root/.ssh scp /root/.ssh/authorized_keys root@192.168.3.9:/root/.ssh scp /root/.ssh/authorized_keys root@192.168.3.13:/root/.ssh scp /root/.ssh/authorized_keys root@192.168.3.11:/root/.ssh scp /root/.ssh/authorized_keys root@192.168.3.12:/root/.ssh

最终验证

  1. 格式化Namenode: bash hadoop namenode -format

  2. 重启Hadoop: bash start-all.sh

  3. 访问Hadoop管理界面: 打开浏览器,访问 http://192.168.3.7:9870 或者 http://192.168.3.7:9870/dfshealth.html#tab-overview

  4. 配置/etc/hosts文件,确保所有节点都有正确的主机名解析。

希望这篇指南能帮助您顺利完成Hadoop的安装和配置。如果有任何问题,请随时联系我。

    本文来源:图灵汇
责任编辑: : 芯华集成电路人才基地
声明:本文系图灵汇原创稿件,版权属图灵汇所有,未经授权不得转载,已经协议授权的媒体下载使用时须注明"稿件来源:图灵汇",违者将依法追究责任。
    分享
集群安装系列数据hadoop
    下一篇