当前位置: 首页 > news >正文

hadoop应用遇到的问题

image
当遇到如下问题,大致是安装包有问题,需要重新下载安装包,但是直接用命令行下载需要十个小时,这边在widows上下载好在传送到虚拟机
接着按照以下步骤
结合你当前hdfs命令功能受限的问题,以下是彻底修复Hadoop环境的详细操作步骤,确保能正常执行MapReduce词频统计任务:

一、卸载现有异常Hadoop环境

  1. 查找当前hdfs命令位置
    执行以下命令确认异常hdfs的安装路径:

    which hdfs
    

    假设输出为/usr/local/bin/hdfs(非标准Hadoop路径)。

  2. 删除异常Hadoop文件
    若存在非官方Hadoop安装,执行:

    sudo rm -rf /usr/local/bin/hdfs  # 根据实际路径删除
    sudo rm -rf /usr/local/hadoop    # 若存在旧安装目录,一并删除
    

二、安装官方完整Hadoop(以3.3.4版本为例)

1. 安装依赖

sudo apt update
sudo apt install -y openjdk-8-jdk ssh rsync

验证Java安装:

java -version  # 应显示openjdk版本信息

2. 下载并解压Hadoop

# 下载官方包(国内可使用镜像加速)
wget https://archive.apache.org/dist/hadoop/common/hadoop-3.3.4/hadoop-3.3.4.tar.gz# 解压到/usr/local
sudo tar -zxf hadoop-3.3.4.tar.gz -C /usr/local# 重命名为hadoop并授权
sudo mv /usr/local/hadoop-3.3.4 /usr/local/hadoop
sudo chown -R lalala:lalala /usr/local/hadoop  # 替换为你的用户名

3. 配置环境变量

编辑~/.bashrc文件:

nano ~/.bashrc

在末尾添加:

# Java环境
export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
# Hadoop环境
export HADOOP_HOME=/usr/local/hadoop
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME

生效配置:

source ~/.bashrc

4. 验证Hadoop安装

执行:

hadoop version

若输出Hadoop 3.3.4版本信息,说明基础安装成功。

三、配置Hadoop伪分布式模式

1. 配置SSH免密登录

# 生成密钥
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
# 授权本地登录
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 600 ~/.ssh/authorized_keys
# 测试免密登录
ssh localhost  # 应无需密码直接登录,执行exit退出

2. 修改Hadoop配置文件

所有配置文件位于$HADOOP_HOME/etc/hadoop

  • core-site.xml

    nano $HADOOP_HOME/etc/hadoop/core-site.xml
    

    <configuration>中添加:

    <property><name>fs.defaultFS</name><value>hdfs://localhost:9000</value>
    </property>
    
  • hdfs-site.xml

    nano $HADOOP_HOME/etc/hadoop/hdfs-site.xml
    

    添加:

    <property><name>dfs.replication</name><value>1</value>  <!-- 伪分布式单节点,副本数设为1 -->
    </property>
    <property><name>dfs.namenode.name.dir</name><value>/usr/local/hadoop/hdfs/name</value>
    </property>
    <property><name>dfs.datanode.data.dir</name><value>/usr/local/hadoop/hdfs/data</value>
    </property>
    
  • mapred-site.xml

    cp $HADOOP_HOME/etc/hadoop/mapred-site.xml.template $HADOOP_HOME/etc/hadoop/mapred-site.xml
    nano $HADOOP_HOME/etc/hadoop/mapred-site.xml
    

    添加:

    <property><name>mapreduce.framework.name</name><value>yarn</value>  <!-- 使用YARN作为MapReduce框架 -->
    </property>
    
  • yarn-site.xml

    nano $HADOOP_HOME/etc/hadoop/yarn-site.xml
    

    添加:

    <property><name>yarn.nodemanager.aux-services</name><value>mapreduce_shuffle</value>
    </property>
    <property><name>yarn.resourcemanager.hostname</name><value>localhost</value>
    </property>
    

3. 格式化NameNode(首次安装执行)

hdfs namenode -format

看到SUCCESS提示说明格式化成功。

四、启动Hadoop并验证

  1. 启动HDFS和YARN

    start-dfs.sh   # 启动HDFS
    start-yarn.sh  # 启动YARN
    
  2. 检查进程

    jps
    

    应显示以下进程(缺一不可):

    • NameNode
    • DataNode
    • SecondaryNameNode
    • ResourceManager
    • NodeManager
  3. 验证HDFS命令功能

    hdfs version  # 应输出Hadoop版本
    hdfs dfs -mkdir -p /user/lalala/input  # 创建输入目录(成功无报错)
    
  4. 验证Web界面
    打开浏览器访问:

    • HDFS Web界面:http://localhost:50070(能正常打开)
    • YARN Web界面:http://localhost:8088(能正常打开)

五、上传文件并运行MapReduce任务

  1. 上传本地文件到HDFS

    # 假设wordfile1.txt和wordfile2.txt在当前目录
    hdfs dfs -put wordfile1.txt wordfile2.txt /user/lalala/input/
    # 验证上传
    hdfs dfs -ls /user/lalala/input/  # 应显示两个文件
    
  2. 运行词频统计程序
    使用Hadoop自带的wordcount示例(无需手动编译):

    hadoop jar $HADOOP_HOME/share/hadoop/mapreduce/hadoop-mapreduce-examples-3.3.4.jar wordcount /user/lalala/input /user/lalala/output
    
  3. 查看结果

    hdfs dfs -cat /user/lalala/output/part-r-00000
    

    应输出正确的词频统计结果。

按以上步骤操作后,你的Hadoop环境将恢复正常,可顺利完成词频统计任务。

http://www.hskmm.com/?act=detail&tid=39415

相关文章:

  • Nginx程序结构及核心配置
  • 事倍功半是蠢蛋57 typora相对路径图片上传到github
  • 序列密码基本模型
  • 企业级Nginx安装部署
  • 2025 年 10 月门窗十大品牌综合实力权威推荐榜单,聚焦产能、专利与环保的实力品牌深度解析
  • 以“听”为基,以“做”为翼
  • 解码Linux文件IO之中文字库原理与应用
  • 企业级Web应用及Nginx介绍
  • 2025 年 10 月门窗十大品牌综合实力权威推荐榜单,精准检测与稳定性能兼具的行业优选解析
  • 使用EasyBlogImageForTypora将Typora上传图床改为博客园——2025/10/26最新
  • 博客1
  • 2025 年 10 月门窗十大品牌综合实力权威推荐榜单,技术实力与市场口碑深度解析
  • HarfBuzz概览汇报总结
  • 题解:P5853 [USACO19DEC] Tree Depth P
  • 2025 年 10 月门窗十大品牌综合实力权威推荐榜单,聚焦高端定制需求与全案交付能力
  • idea或pycharm工具报python packaging tools not found. install packaging tools
  • 吃不东了
  • Alibaba Cloud Linux 4 镜像备份到自己的 OSS 中,并同时使用该镜像部署
  • Java学习与工作汇报总结
  • Function Calling
  • 《代码大全》读后感(1)
  • [K230学习笔记 02] I2C - Ze
  • day01 AI入门讲解
  • 实验作业3
  • ? #5
  • GitLab:代码管理 - 教程
  • 20232302 2025-2026-1《网络与系统攻防技术》实验三实验报告
  • MCP Router使用学习
  • fvm Flutter多版本管理安装与常用指令
  • 人生八要(摘抄)