Hadoop学习之路(七)Hadoop集群shell常用命令

Hadoop常用命令

启动HDFS集群

[[email protected] ~]$ start-dfs.sh
Starting namenodes on [hadoop1]
hadoop1: starting namenode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-namenode-hadoop1.out
hadoop2: starting datanode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-datanode-hadoop2.out
hadoop3: starting datanode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-datanode-hadoop3.out
hadoop4: starting datanode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-datanode-hadoop4.out
hadoop1: starting datanode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-datanode-hadoop1.out
Starting secondary namenodes [hadoop3]
hadoop3: starting secondarynamenode, logging to /home/hadoop/apps/hadoop-2.7.5/logs/hadoop-hadoop-secondarynamenode-hadoop3.out
[[email protected] ~]$ 

启动YARN集群

[[email protected] ~]$ start-yarn.sh
starting yarn daemons
starting resourcemanager, logging to /home/hadoop/apps/hadoop-2.7.5/logs/yarn-hadoop-resourcemanager-hadoop4.out
hadoop2: starting nodemanager, logging to /home/hadoop/apps/hadoop-2.7.5/logs/yarn-hadoop-nodemanager-hadoop2.out
hadoop3: starting nodemanager, logging to /home/hadoop/apps/hadoop-2.7.5/logs/yarn-hadoop-nodemanager-hadoop3.out
hadoop4: starting nodemanager, logging to /home/hadoop/apps/hadoop-2.7.5/logs/yarn-hadoop-nodemanager-hadoop4.out
hadoop1: starting nodemanager, logging to /home/hadoop/apps/hadoop-2.7.5/logs/yarn-hadoop-nodemanager-hadoop1.out
[[email protected] ~]$ 

查看HDFS系统根目录

[[email protected] ~]$ hadoop fs -ls /
Found 2 items
drwxr-xr-x   - hadoop supergroup          0 2018-03-03 11:42 /test
drwx------   - hadoop supergroup          0 2018-03-03 11:42 /tmp
[[email protected] ~]$ 

创建文件夹

[[email protected] ~]$ hadoop fs -mkdir /a
[[email protected] ~]$ hadoop fs -ls /
Found 3 items
drwxr-xr-x   - hadoop supergroup          0 2018-03-08 11:09 /a
drwxr-xr-x   - hadoop supergroup          0 2018-03-03 11:42 /test
drwx------   - hadoop supergroup          0 2018-03-03 11:42 /tmp
[[email protected] ~]$ 

级联创建文件夹

[[email protected] ~]$ hadoop fs -mkdir -p /aa/bb/cc
[[email protected] ~]$ 

查看hsdf系统根目录下的所有文件包括子文件夹里面的文件

[[email protected] ~]$ hadoop fs -ls -R /aa
drwxr-xr-x - hadoop supergroup 0 2018-03-08 11:12 /aa/bb
drwxr-xr-x - hadoop supergroup 0 2018-03-08 11:12 /aa/bb/cc
[[email protected] ~]$

上传文件

[[email protected] ~]$ ls
apps data words.txt
[[email protected] ~]$ hadoop fs -put words.txt /aa
[[email protected] ~]$ hadoop fs -copyFromLocal words.txt /aa/bb
[[email protected] ~]$

下载文件

[[email protected] ~]$ hadoop fs -get /aa/words.txt ~/newwords.txt
[[email protected] ~]$ ls
apps  data  newwords.txt  words.txt
[[email protected] ~]$ hadoop fs -copyToLocal /aa/words.txt ~/newwords1.txt
[[email protected] ~]$ ls
apps  data  newwords1.txt  newwords.txt  words.txt
[[email protected] ~]$ 

合并下载

[[email protected] ~]$ hadoop fs -getmerge /aa/words.txt /aa/bb/words.txt ~/2words.txt
[[email protected] ~]$ ll
总用量 24
-rw-r--r--. 1 hadoop hadoop   78 3月   8 12:42 2words.txt
drwxrwxr-x. 3 hadoop hadoop 4096 3月   3 10:30 apps
drwxrwxr-x. 3 hadoop hadoop 4096 3月   3 11:40 data
-rw-r--r--. 1 hadoop hadoop   39 3月   8 11:49 newwords1.txt
-rw-r--r--. 1 hadoop hadoop   39 3月   8 11:48 newwords.txt
-rw-rw-r--. 1 hadoop hadoop   39 3月   3 11:31 words.txt
[[email protected] ~]$ 

复制

从HDFS一个路径拷贝到HDFS另一个路径

[[email protected] ~]$ hadoop fs -ls /a
[[email protected] ~]$ hadoop fs -cp /aa/words.txt /a
[[email protected] ~]$ hadoop fs -ls /a
Found 1 items
-rw-r--r--   2 hadoop supergroup         39 2018-03-08 12:46 /a/words.txt
[[email protected] ~]$ 

移动

在HDFS目录中移动文件

[[email protected] ~]$ hadoop fs -ls /aa/bb/cc
[[email protected] ~]$ hadoop fs -mv /a/words.txt /aa/bb/cc
[[email protected] ~]$ hadoop fs -ls /aa/bb/cc
Found 1 items
-rw-r--r--   2 hadoop supergroup         39 2018-03-08 12:46 /aa/bb/cc/words.txt
[[email protected] ~]$ 

删除

删除文件或文件夹

[[email protected] ~]$ hadoop fs -rm /aa/bb/cc/words.txt
18/03/08 12:49:08 INFO fs.TrashPolicyDefault: Namenode trash configuration: Deletion interval = 0 minutes, Emptier interval = 0 minutes.
Deleted /aa/bb/cc/words.txt
[[email protected] ~]$ hadoop fs -ls /aa/bb/cc
[[email protected] ~]$ 

删除空目录

[[email protected] ~]$ hadoop fs -rmdir /aa/bb/cc/
[[email protected] ~]$ hadoop fs -ls /aa/bb/
Found 1 items
-rw-r--r--   2 hadoop supergroup         39 2018-03-08 11:43 /aa/bb/words.txt
[[email protected] ~]$ 

强制删除

[[email protected] ~]$ hadoop fs -rm /aa/bb/
rm: `/aa/bb‘: Is a directory
[[email protected] ~]$ hadoop fs -rm -r /aa/bb/
18/03/08 12:51:31 INFO fs.TrashPolicyDefault: Namenode trash configuration: Deletion interval = 0 minutes, Emptier interval = 0 minutes.
Deleted /aa/bb
[[email protected] ~]$ hadoop fs -ls /aa
Found 1 items
-rw-r--r--   2 hadoop supergroup         39 2018-03-08 11:41 /aa/words.txt
[[email protected] ~]$ 

从本地剪切文件到HDFS上

[[email protected] ~]$ ls
apps  data  hello.txt
[[email protected] ~]$ hadoop fs -moveFromLocal ~/hello.txt /aa
[[email protected] ~]$ ls
apps  data
[[email protected] ~]$ 

追加文件

追加之前hello.txt到words.txt之前

[[email protected] ~]$ hadoop fs -appendToFile ~/hello.txt /aa/words.txt
[[email protected] ~]$ 

追加之前hello.txt到words.txt之后

查看文件内容

[[email protected] ~]$ hadoop fs -cat /aa/hello.txt
hello
hello
hello
[[email protected] ~]$ 

chgrp

使用方法:hadoop fs -chgrp [-R] GROUP URI [URI …] Change group association of files. With -R, make the change recursively through the directory structure. The user must be the owner of files, or else a super-user. Additional information is in the Permissions User Guide. -->

改变文件所属的组。使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超级用户。更多的信息请参见HDFS权限用户指南

chmod

使用方法:hadoop fs -chmod [-R] <MODE[,MODE]... | OCTALMODE> URI [URI …]

改变文件的权限。使用-R将使改变在目录结构下递归进行。命令的使用者必须是文件的所有者或者超级用户。更多的信息请参见HDFS权限用户指南

chown

使用方法:hadoop fs -chown [-R] [OWNER][:[GROUP]] URI [URI ]

改变文件的拥有者。使用-R将使改变在目录结构下递归进行。命令的使用者必须是超级用户。更多的信息请参见HDFS权限用户指南

du

使用方法:hadoop fs -du URI [URI …]

显示目录中所有文件的大小,或者当只指定一个文件时,显示此文件的大小。
示例:
hadoop fs -du /user/hadoop/dir1 /user/hadoop/file1 hdfs://host:port/user/hadoop/dir1 
返回值:
成功返回0,失败返回-1。

dus

使用方法:hadoop fs -dus <args>

显示文件的大小。

expunge

使用方法:hadoop fs -expunge

清空回收站。请参考HDFS设计文档以获取更多关于回收站特性的信息。

setrep

使用方法:hadoop fs -setrep [-R] <path>

改变一个文件的副本系数。-R选项用于递归改变目录下所有文件的副本系数。

示例:

  • hadoop fs -setrep -w 3 -R /user/hadoop/dir1

返回值:

成功返回0,失败返回-1。

tail

使用方法:hadoop fs -tail [-f] URI

将文件尾部1K字节的内容输出到stdout。支持-f选项,行为和Unix中一致。

示例:

  • hadoop fs -tail pathname

返回值:
成功返回0,失败返回-1。

test

使用方法:hadoop fs -test -[ezd] URI

选项:
-e 检查文件是否存在。如果存在则返回0。
-z 检查文件是否是0字节。如果是则返回0。 
-d 如果路径是个目录,则返回1,否则返回0。

示例:

    • hadoop fs -test -e filename

查看集群的工作状态

[[email protected] ~]$ hdfs dfsadmin -report
Configured Capacity: 73741402112 (68.68 GB)
Present Capacity: 52781039616 (49.16 GB)
DFS Remaining: 52780457984 (49.16 GB)
DFS Used: 581632 (568 KB)
DFS Used%: 0.00%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
Missing blocks (with replication factor 1): 0

-------------------------------------------------
Live datanodes (4):

Name: 192.168.123.102:50010 (hadoop1)
Hostname: hadoop1
Decommission Status : Normal
Configured Capacity: 18435350528 (17.17 GB)
DFS Used: 114688 (112 KB)
Non DFS Used: 4298661888 (4.00 GB)
DFS Remaining: 13193277440 (12.29 GB)
DFS Used%: 0.00%
DFS Remaining%: 71.57%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Thu Mar 08 13:05:11 CST 2018

Name: 192.168.123.105:50010 (hadoop4)
Hostname: hadoop4
Decommission Status : Normal
Configured Capacity: 18435350528 (17.17 GB)
DFS Used: 49152 (48 KB)
Non DFS Used: 4295872512 (4.00 GB)
DFS Remaining: 13196132352 (12.29 GB)
DFS Used%: 0.00%
DFS Remaining%: 71.58%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Thu Mar 08 13:05:13 CST 2018

Name: 192.168.123.103:50010 (hadoop2)
Hostname: hadoop2
Decommission Status : Normal
Configured Capacity: 18435350528 (17.17 GB)
DFS Used: 233472 (228 KB)
Non DFS Used: 4295700480 (4.00 GB)
DFS Remaining: 13196120064 (12.29 GB)
DFS Used%: 0.00%
DFS Remaining%: 71.58%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Thu Mar 08 13:05:11 CST 2018

Name: 192.168.123.104:50010 (hadoop3)
Hostname: hadoop3
Decommission Status : Normal
Configured Capacity: 18435350528 (17.17 GB)
DFS Used: 184320 (180 KB)
Non DFS Used: 4296941568 (4.00 GB)
DFS Remaining: 13194928128 (12.29 GB)
DFS Used%: 0.00%
DFS Remaining%: 71.57%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Thu Mar 08 13:05:10 CST 2018

[[email protected] ~]$ 

原文地址:https://www.cnblogs.com/qingyunzong/p/8527595.html

时间: 2024-11-02 01:40:19

Hadoop学习之路(七)Hadoop集群shell常用命令的相关文章

Nginx Redis redis分片 redis哨兵 redis集群 等 常用命令

Nginx  Redis  redis分片  redis哨兵  redis集群 等 常用命令 1.1.1 Nginx命令 前提:nginx的命令执行,必须在nginx的根目录中完成 命令: 1.启动nginx     start nginx 2.重启nginx     nginx -s reload 3.关闭nginx     nginx -s stop Linux命令 1.1.2 cd命令集 ifconfig  检查IP地址 cd命令是linux中最基本的命令语句,必须熟练掌握 cd / 返回

【整理学习Hadoop】Hadoop学习基础之一:服务器集群技术

        服务器集群就是指将很多服务器集中起来一起进行同一种服务,在客户端看来就像是只有一个服务器.集群可以利用多个计算机进行并行计算从而获得很高的计算速度,也可以用多个计算机做备份,从而使得任何一个机器坏了整个系统还是能正常运行. 集群(cluster)技术是一种较新的技术,通过集群技术,可以在付出较低成本的情况下获得在性能.可靠性.灵活性方面的相对较高的收益,其任务调度则是集群系统中的核心技术.集群是一组相互独立的.通过高速网络互联的计算机,它们构成了一个组,并以单一系统的模式加以管理

kubernetes集群管理常用命令一

系列目录 我们把集群管理命令分为两个部分,第一部分介绍一些简单的,但是可能是非常常用的命令以及一些平时可能没有碰到的技巧.第二部分将综合前面介绍的工具通过示例来讲解一些更为复杂的命令. 列出集群中所有pod 使用kubectl get pods获取的一般是默认名称空间的信息(可以在配置文件中指定默认全称空间,如果没有指定则默认为default).如果想要获取获取非默认名称空间的pod,则需要指定-n(或者--namespace)参数.但是有些时候我们想要查看整个集群中所有名称空间的pod,则可以

Linux集群监控常用命令-备忘

1.load average top uptime 2.CPU利用率 top 1多核CPU查看 Shift+H  用线程查看 -p 指定查看的进程 top | grep Cpu 3.磁盘剩余空间 df -h 按单位格式输出 du -h 按单位格式输出 4.网络traffic sar -n DEV 1 1 -n 汇报网络状况 DEV 查看各个网卡网络流量 n 间隔秒数 n 总共取几次 5.磁盘I/O iostat -d -k 6.内存使用 free -m 以MB为单位 -g 以GB为单位 vmst

Hadoop学习笔记_4_实施Hadoop集群 --伪分布式安装

实施Hadoop集群 --伪分布式安装 准备与配置安装环境 安装虚拟机和linux,虚拟机推荐使用vmware,PC可以使用workstation,服务器可以使用ESXi,在管理上比较方便.ESXi还可以通过拷贝镜像文件复制虚拟机,复制后自动修改网卡号和ip,非常快捷.如果只是实验用途,硬盘大约预留20-30G空间. 以Centos为例,分区可以选择默认[如果想要手动分区,请参考博客:http://blog.csdn.net/zjf280441589/article/details/175485

Hadoop学习笔记_8_实施Hadoop集群 --分布式安装Hadoop

实施Hadoop集群 --分布式安装Hadoop 说明: 以Ubuntu配置为例,其中与CentOS不同之处会给出详细说明 现有三台服务器:其IP与主机名对应关系为: 192.168.139.129 master #NameNode/JobTrackerr结点 192.168.139.132 slave01 #DataNode/TaskTracker结点 192.168.139.137 slave02 #DataNode/TaskTracker结点 一.配置ssh实现Hadoop节点间用户的无密

阿里封神谈hadoop学习之路

阿里封神谈hadoop学习之路 封神 2016-04-14 16:03:51 浏览3283 评论3 发表于: 阿里云E-MapReduce >> 开源大数据周刊 hadoop 学生 spark 摘要: 在大数据时代,要想个性化实现业务的需求,还是得操纵各类的大数据软件,如:hadoop.hive.spark等.笔者(阿里封神)混迹Hadoop圈子多年,经历了云梯1.ODPS等项目,目前base在E-Mapreduce.在这,笔者尽可能梳理下hadoop的学习之路. 引言 当前,越来越多的同学进

Hadoop初学指南(10)--ZooKeeper的集群安装和操作

本文简单介绍了ZooKeeper的基本知识. (1)概述 ①什么是ZooKeeper? Zookeeper 是 Google 的 Chubby一个开源的实现,是 Hadoop 的分布式协调服务 它包含一个简单的原语集,分布式应用程序可以基于它实现同步服务,配置维护和命名服务等 ②Zookeeper的角色 ③为什么使用Zookeeper? 大部分分布式应用需要一个主控.协调器或控制器来管理物理分布的子进程(如资源.任务分配等) 目前,大部分应用需要开发私有的协调程序,缺乏一个通用的机制 协调程序的

Hadoop及Zookeeper+HBase完全分布式集群部署

Hadoop及HBase集群部署 一. 集群环境 系统版本 虚拟机:内存 16G CPU 双核心 系统: CentOS-7 64位 系统下载地址: http://124.202.164.6/files/417500000AB646E7/mirrors.163.com/centos/7/isos/x86_64/CentOS-7-x86_64-DVD-1708.iso 软件版本 hadoop-2.8.1.tar.gz hbase-1.3.1-bin.tar.gz zookeeper-3.4.10.t