sudo apt update && sudo apt upgrade -y,确保系统软件包为最新版本。sudo apt install net-tools vim openssh-server -y。sudo ufw disable。Hadoop依赖Java运行环境,推荐安装OpenJDK 11(兼容性最佳):
sudo apt install openjdk-11-jdk -y安装JDK。java -version,输出应包含Java版本信息(如openjdk version "11.0.xx")。wget https://downloads.apache.org/hadoop/common/hadoop-3.3.6/hadoop-3.3.6.tar.gz。/usr/local/目录,并重命名为hadoop:sudo tar -xzvf hadoop-3.3.6.tar.gz -C /usr/local/ && sudo mv /usr/local/hadoop-3.3.6 /usr/local/hadoop。sudo adduser hadoop && sudo usermod -aG sudo hadoop。/etc/profile,添加以下内容(替换路径为实际安装路径):export HADOOP_HOME=/usr/local/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin export JAVA_HOME=/usr/lib/jvm/java-11-openjdk-amd64 # 根据实际Java路径调整 source /etc/profile。echo $HADOOP_HOME应输出Hadoop安装路径。Hadoop的主配置文件位于$HADOOP_HOME/etc/hadoop/目录,需修改以下文件:
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> <!-- 单机模式下指向本地 --> </property> <property> <name>hadoop.tmp.dir</name> <value>/tmp/hadoop-${user.name}</value> <!-- 临时目录 --> </property> </configuration> <configuration> <property> <name>dfs.replication</name> <value>1</value> <!-- 单机模式设为1,集群模式需≥3 --> </property> <property> <name>dfs.namenode.name.dir</name> <value>/opt/hadoop/hdfs/namenode</value> <!-- NameNode元数据目录 --> </property> <property> <name>dfs.datanode.data.dir</name> <value>/opt/hadoop/hdfs/datanode</value> <!-- DataNode数据目录 --> </property> </configuration> cp $HADOOP_HOME/etc/hadoop/mapred-site.xml.template $HADOOP_HOME/etc/hadoop/mapred-site.xml,然后编辑:<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> <!-- 使用YARN作为资源管理器 --> </property> </configuration> <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> <!-- Shuffle服务 --> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> </configuration> NameNode是HDFS的核心元数据节点,首次启动前需格式化(注意:格式化会清除已有数据):
hdfs namenode -format,等待格式化完成(输出“Format successful”即为成功)。start-dfs.sh,启动NameNode和DataNode服务。jps,应看到NameNode、DataNode进程(若未显示,检查日志文件$HADOOP_HOME/logs/)。hdfs dfsadmin -report,查看DataNode是否注册成功。hdfs dfs -mkdir -p /test。/usr/src/linux-source-2.6.27/Doc*/memory-barriers.txt)上传至HDFS:hdfs dfs -put /usr/src/linux-source-2.6.27/Doc*/memory-barriers.txt /test。hdfs dfs -ls /test,若能看到上传的文件,则说明HDFS安装成功。/etc/hosts文件,并配置静态IP。ssh-keygen和ssh-copy-id配置)。$HADOOP_HOME/logs/目录下的日志文件(如namenode.log)定位问题。