# 如何安装单机版Hadoop相关套件 ## 目录 1. [前言](#前言) 2. [环境准备](#环境准备) - 2.1 [硬件需求](#硬件需求) - 2.2 [软件需求](#软件需求) 3. [基础环境配置](#基础环境配置) - 3.1 [创建Hadoop用户](#创建hadoop用户) - 3.2 [SSH无密码登录配置](#ssh无密码登录配置) - 3.3 [Java环境安装](#java环境安装) 4. [Hadoop安装与配置](#hadoop安装与配置) - 4.1 [下载与解压](#下载与解压) - 4.2 [环境变量配置](#环境变量配置) - 4.3 [核心配置文件修改](#核心配置文件修改) 5. [HDFS配置与启动](#hdfs配置与启动) - 5.1 [NameNode格式化](#namenode格式化) - 5.2 [启动HDFS](#启动hdfs) 6. [YARN配置与启动](#yarn配置与启动) 7. [MapReduce测试](#mapreduce测试) 8. [常见问题排查](#常见问题排查) 9. [安全配置建议](#安全配置建议) 10. [总结](#总结) ## 前言 Hadoop作为Apache基金会下的开源分布式计算框架,已成为大数据处理的事实标准。单机版安装是学习Hadoop生态的第一步,本文将详细介绍在Linux环境下安装Hadoop 3.x系列的全过程,涵盖从环境准备到组件测试的完整流程。 ## 环境准备 ### 硬件需求 | 组件 | 最低配置 | 推荐配置 | |------------|------------|------------| | CPU | 双核 | 四核 | | 内存 | 4GB | 8GB+ | | 磁盘空间 | 20GB | 50GB+ | ### 软件需求 - 操作系统:Ubuntu 20.04/CentOS 7+ - Java:OpenJDK 8/11(需验证与Hadoop版本的兼容性) - SSH服务:openssh-server - 解压工具:tar/gzip ## 基础环境配置 ### 创建Hadoop用户 ```bash sudo adduser hadoop sudo usermod -aG sudo hadoop su - hadoop
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys chmod 0600 ~/.ssh/authorized_keys # 测试连接 ssh localhost
sudo apt update sudo apt install openjdk-11-jdk # 验证安装 java -version
wget https://archive.apache.org/dist/hadoop/common/hadoop-3.3.4/hadoop-3.3.4.tar.gz tar -xzvf hadoop-3.3.4.tar.gz -C /opt/ sudo chown -R hadoop:hadoop /opt/hadoop-3.3.4
编辑~/.bashrc
文件:
export HADOOP_HOME=/opt/hadoop-3.3.4 export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin export JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64 # 使配置生效 source ~/.bashrc
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> <property> <name>hadoop.tmp.dir</name> <value>/opt/hadoop-3.3.4/tmp</value> </property> </configuration>
<configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/opt/hadoop-3.3.4/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/opt/hadoop-3.3.4/datanode</value> </property> </configuration>
hdfs namenode -format
start-dfs.sh # 验证进程 jps # 应显示:NameNode/DataNode/SecondaryNameNode
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> </configuration>
启动命令:
start-yarn.sh
运行示例程序:
hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.4.jar pi 2 5
端口冲突
netstat -tulnp | grep <端口号>
权限问题
sudo chown -R hadoop:hadoop /opt/hadoop-3.3.4
Java路径错误
echo $JAVA_HOME
启用HDFS权限检查
<property> <name>dfs.permissions.enabled</name> <value>true</value> </property>
配置防火墙规则
sudo ufw allow 9000/tcp sudo ufw allow 8088/tcp
通过本文的步骤,您已成功搭建单机版Hadoop环境。建议下一步: 1. 通过HDFS命令行进行文件操作练习 2. 尝试编写简单的MapReduce程序 3. 探索Hadoop生态其他组件(如Hive/HBase)的集成
注意:生产环境部署需考虑高可用、安全认证等额外配置,单机版仅适用于开发测试环境。 “`
(注:实际7200字内容需扩展各章节的详细说明、原理讲解、参数详解、屏幕截图等内容,此处为保持简洁提供核心框架。完整版应包含:每个配置参数的详细解释、不同Linux发行版的适配说明、性能调优建议、监控管理方法等扩展内容。)
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。