本文将分为两部分,第一部分整理Linux虚拟机下的高频操作命令(文件编辑、解压、拷贝等),第二部分汇总Hadoop, Zookeeper, HBase, Hive等组件的启动/停止命令,方便随时查阅。
第一部分:Linux虚拟机高频操作命令
1. 文件与目录操作
# 列出当前目录下的文件和目录
ls
ls -l # 详细列表
ls -a # 显示隐藏文件# 切换目录
cd /path/to/directory
cd ~ # 回到家目录
cd .. # 返回上一级目录# 查看当前所在目录
pwd# 创建目录
mkdir dir_name
mkdir -p parent/child/grandson # 递归创建多级目录# 删除文件或目录
rm file_name
rm -r dir_name # 递归删除目录及其内容
rm -rf dir_name # (强制删除,慎用!)# 拷贝文件或目录
cp source_file dest_file
cp -r source_dir dest_dir # 递归拷贝目录# 移动或重命名文件/目录
mv old_name new_name
mv file_name /path/to/directory/# 查看文件内容
cat file_name # 输出全部内容
more file_name # 分页查看,只能向下
less file_name # 分页查看,可上下滚动
head -n 10 file_name # 查看前10行
tail -n 10 file_name # 查看尾部10行
tail -f file_name # 实时追踪文件末尾(查看日志神器)
2. 文件编辑 - Vim
# 打开或创建文件
vim file_name# 进入编辑模式
按下 `i` 键 (-- INSERT -- 模式)# 退出编辑模式
按下 `ESC` 键# 保存并退出
按下 `:`,然后输入 `wq`,回车# 不保存强制退出
按下 `:`,然后输入 `q!`,回车# 其他常用操作
:/keyword # 搜索关键字,按 `n` 下一个
:set nu # 显示行号
:set nonu # 取消显示行号
u # 撤销
3. 文件压缩与解压
tar.gz 格式 (Hadoop生态最常用)
# 解压
tar -zxvf compressed_file.tar.gz -C /target/directory
# -z: 处理gzip压缩
# -x: 解压
# -v: 显示过程
# -f: 指定文件名
# -C: 指定解压目标目录# 压缩
tar -zcvf target_file.tar.gz source_file1 source_dir2
zip 格式
# 解压
unzip file.zip -d /target/directory# 压缩
zip -r target.zip source_file source_dir
4. 网络与下载
# 检查网络连通性
ping www.baidu.com# 查看网络配置
ifconfig# 下载文件 (如果系统已安装)
wget http://example.com/file.tar.gz
curl -O http://example.com/file.tar.gz
第二部分:Hadoop生态组件启动命令
1. Hadoop
# 启动HDFS
start-dfs.sh# 启动YARN
start-yarn.sh# 一键启动HDFS+YARN (等效于上面两条)
start-all.sh# 停止
stop-dfs.sh
stop-yarn.sh
stop-all.sh
2. Zookeeper
# 进入到Zookeeper的bin目录
zkServer.sh start # 启动
zkServer.sh status # 查看状态(Mode: standalone)
zkServer.sh stop # 停止
3. HBase
# 进入到HBase的bin目录
start-hbase.sh # 启动
stop-hbase.sh # 停止
4. Hive
nohup /export/servers/hive/bin/hive --service metastore &nohup /export/servers/hive/bin/hive --service hiveserver2 &