Hadoop在Linux系统上扩展存储主要有**横向扩容(增加节点)和纵向扩容(提升单机存储)**两种方式,具体操作如下:
核心步骤:
hdfs-site.xml中添加新DataNode的存储目录(如<property><name>dfs.datanode.data.dir</name><value>/data1,/data2</value></property>)。hdfs-site.xml的dfs.replication相关配置中(可选)。hdfs datanode命令启动服务,新节点会自动注册到NameNode。hdfs balancer命令,将数据均匀分布到新旧节点,避免单节点负载过高。hdfs dfsadmin -report查看集群状态,确认新节点已加入且存储空间正常。核心步骤:
fdisk /dev/sdb(假设新硬盘为/dev/sdb)进行分区、格式化(如mkfs.xfs /dev/sdb1)。/data),编辑/etc/fstab添加挂载信息(如/dev/sdb1 /data xfs defaults 0 0),执行mount -a使配置生效。hdfs-site.xml,在dfs.datanode.data.dir中添加新挂载路径(如<value>/data,/opt/hadoop/data</value>)。hadoop-daemon.sh start datanode或systemctl restart hadoop-datanode),使新硬盘生效。df -h查看磁盘使用情况,确认新硬盘已挂载;通过hdfs dfsadmin -report查看节点存储状态。参考来源: