本文指导您在 Debian 系统上安装并测试 apache hadoop。以下步骤将详细介绍配置过程和验证方法。
第一步:安装 Java
确保系统已安装 Java 8 或更高版本。使用以下命令安装 OpenJDK 8:
sudo apt update sudo apt install openjdk-8-jdk
验证安装:
java -version
第二步:下载和解压 Hadoop
从 Apache Hadoop 官网下载最新版 Hadoop,并解压到指定目录(例如 /usr/local/hadoop):
wget https://downloads.apache.org/hadoop/common/hadoop-3.3.1/hadoop-3.3.1.tar.gz tar -xzvf hadoop-3.3.1.tar.gz -C /usr/local/hadoop ``` (请替换 `hadoop-3.3.1` 为实际的版本号) **第三步:配置环境变量** 编辑 `~/.bashrc` 文件,添加以下环境变量: ```bash export HADOOP_HOME=/usr/local/hadoop export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
使更改生效:
source ~/.bashrc
第四步:配置 Hadoop 配置文件
修改 Hadoop 目录下的配置文件:
- core-site.xml:
<configuration> <property> <name>fs.defaultFS</name> <value>hdfs://namenode:9000</value> </property> </configuration>
- hdfs-site.xml:
<configuration> <property> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/usr/local/hadoop/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/usr/local/hadoop/dfs/data</value> </property> </configuration>
- mapred-site.xml:
<configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration>
- yarn-site.xml:
<configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> </configuration>
第五步:格式化 HDFS
在 NameNode 节点上执行以下命令格式化 HDFS:
hdfs namenode -format
第六步:启动 Hadoop 服务
在 NameNode 节点上启动 NameNode 和 DataNode:
start-dfs.sh
在 ResourceManager 节点上启动 YARN:
start-yarn.sh
第七步:本地模式测试
切换到 Hadoop 用户:
su - hadoop
创建输入目录和文件:
mkdir ~/input vi ~/input/data.txt
输入测试数据(例如 “Hello World”,”Hello Hadoop”),保存并退出。
运行 WordCount 示例:
hadoop jar /usr/local/hadoop/share/hadoop/mapreduce/hadoop-mapreduce-examples-*.jar wordcount ~/input/data.txt ~/output ``` (请根据实际jar包文件名调整) 查看结果: ```bash ls ~/output cat ~/output/part-r-00000
正确输出表明 Hadoop 本地模式运行成功。 请注意,以上步骤假设您在单机环境下进行测试。 对于集群环境,需要进行相应的配置修改。 请务必参考官方Hadoop文档以获取更详细和最新的配置信息。