大数据之---hadoop常用命令大全终极篇

软件环境

RHEL6.8 hadoop2.8.1 apache-maven-3.3.9
findbugs-1.3.9 protobuf-2.5.0.tar.gz jdk-8u45

(操作环境root安装启动的hadoop)
hadoop fs == hdfs dfs

将文件上传至hadoop的根目录/下载至本地
hadoop dfs -put filename /????
hadoop dfs -get /filename???
# ‘/‘不是Linux的根目录,表示hadoop的根目录
?
上传文件?? 下载
[[email protected] software]# hdfs dfs -put apache-maven-3.3.9-bin.zip? /
[[email protected] software]# hdfs? dfs -ls?? /
[[email protected] software]# hdfs dfs -put apache-maven-3.3.9-bin.zip? /
[[email protected] software]# cd
[[email protected] ~]# hdfs dfs -get /apache-maven-3.3.9-bin.zip

帮助

? [-moveFromLocal <localsrc> ... <dst>]
? [-moveToLocal <src> <localdst>]
查看hadoop里的文件内容
hadoop dfs -ls /
[[email protected] ~]# hdfs dfs -ls /
Found 3 items
-rw-r--r--?? 3 root supergroup??? 8617253 2018-04-26 09:20 /apache-maven-3.3.9-bin.zip
-rw-r--r--?? 3 root supergroup????? 59776 2018-04-26 09:14 /install.log
-rw-r--r--?? 3 root supergroup????? 11067 2018-04-26 08:46 /install.log.syslog
查看hadoop里的文件的内容
hadoop fs -cat filename
[[email protected] ~]# hadoop fs -cat?? /file1
111

创建文件夹

? hadoop fs -mkdir -p /filename/filename
[[email protected] ~]#?? hadoop fs -mkdir -p /filename/filename

删除file 删除dir
[[email protected] ~]# hadoop fs -rm -r -f /file1
Deleted /file1
[[email protected] ~]# hadoop fs -rm -r -f /filename
Deleted /filename

? #? [-rm [-f] [-r|-R] [-skipTrash] [-safely] <src> ...]
?
? 1.配置回收站
? vi core-site.xml
? <property>?
??? <name>fs.trash.interval</name>?
??? <value>10080</value>????????? # 回收站保留时间(分钟)
? </property>
?
?
? 2.测试
? hadoop fs -rm -r -f /xxxx????????????????????????????? 进入回收站,是可以恢复的
? hadoop fs -rm -r -f -skipTrash /xxxx?????? 不进入回收站,是不可以恢复的
? A.进入回收站
[[email protected] ~]# hadoop fs -ls /
Found 4 items
-rw-r--r--?? 3 root supergroup??? 8617253 2018-04-26 09:20 /apache-maven-3.3.9-bin.zip
drwxr-xr-x?? - root supergroup????????? 0 2018-04-26 09:35 /dir
-rw-r--r--?? 3 root supergroup????? 59776 2018-04-26 09:14 /install.log
-rw-r--r--?? 3 root supergroup????? 11067 2018-04-26 08:46 /install.log.syslog
[[email protected] ~]# hadoop fs -rm -r -f /install.log
18/04/26 09:38:28 INFO fs.TrashPolicyDefault: Moved: ‘hdfs://172.16.18.133:9000/install.log‘ to trash at: hdfs://172.16.18.133:9000/user/root/.Trash/Current/install.log
[[email protected] ~]# hadoop fs -ls
Found 1 items
drwx------?? - root supergroup????????? 0 2018-04-26 09:38 .Trash
[[email protected] ~]# hadoop fs -ls
Found 1 items
drwx------?? - root supergroup????????? 0 2018-04-26 09:38 .Trash
[[email protected] ~]# hadoop fs -ls .Trash/
Found 1 items
drwx------?? - root supergroup????????? 0 2018-04-26 09:38 .Trash/Current
[[email protected] ~]# hadoop fs -ls .Trash/Current
Found 1 items
-rw-r--r--?? 3 root supergroup????? 59776 2018-04-26 09:14 .Trash/Current/install.log
? 恢复刚刚删除的文件
[[email protected] ~]# hadoop fs -ls /user
Found 1 items
drwx------?? - root supergroup????????? 0 2018-04-26 09:38 /user/root
[[email protected] ~]# hadoop fs -ls /user/root/
Found 1 items
drwx------?? - root supergroup????????? 0 2018-04-26 09:38 /user/root/.Trash
[[email protected] ~]# hadoop fs -mv /user/root/.Trash/Current/install.log? /
[[email protected] ~]# hadoop fs -ls /
Found 5 items
-rw-r--r--?? 3 root supergroup??? 8617253 2018-04-26 09:20 /apache-maven-3.3.9-bin.zip
drwxr-xr-x?? - root supergroup????????? 0 2018-04-26 09:35 /dir
-rw-r--r--?? 3 root supergroup????? 59776 2018-04-26 09:14 /install.log
-rw-r--r--?? 3 root supergroup????? 11067 2018-04-26 08:46 /install.log.syslog
drwx------?? - root supergroup????????? 0 2018-04-26 09:38 /user
?
? B.不进入回收站
[[email protected] ~]# hadoop fs -rm -r -f -skipTrash? /install.log.syslog
Deleted /install.log.syslog
[[email protected] ~]# hadoop fs -ls
Found 1 items
drwx------?? - root supergroup????????? 0 2018-04-26 09:38 .Trash
[[email protected] ~]# hadoop fs -ls .Trash/Current
[[email protected] ~]#????????

hdfs fs -moveFromLocal /input/xx.txt /input/xx.txt? ---从本地剪切粘贴到hdfs

hdfs fs -moveToLocal /input/xx.txt /input/xx.txt? --从hdfs剪切粘贴到本地

hdfs fs -appedToFile ./hello.txt /input/hello.txt? ---追加一个文件到另一个文件到末尾

注意:appedToFile? moveToLocal moveFromLocal? 大小写严格

hdfs fs -cat /input/hello.txt?? ---查看文件内容

hdfs fs -tail /input/hello.txt?? ---显示一个文件到末尾

hdfs fs -text /input/hello.txt? ---以字符串的形式打印文件的内容

hdfs fs -chmod 666 /input/hello.txt?? ---修改文件权限

hdfs fs -chown ruoze.ruoze? /input/hello.txt?? --修改文件所属

hdfs fs -copyFromLocal /input/hello.txt /input/?? --从本地文件系统拷贝到hdfs里

hdfs fs -copyToLocal /input/hello.txt /input/???? --从hdfs拷贝到本地

hdfs fs -cp /input/xx.txt /output/xx.txt????????????? ---从hdfs到一个路径拷贝到另一个路径

hdfs fs -mv /input/xx.txt /output/xx.txt??????????? ---从hdfs到一个路径移动到另一个路径

hdfs fs -df -h /????????????????????????????????????????????????????????????? ----统计文件系统的可用空间信息

hdfs fs -du -s -h /???????????????????????????????????????????????????????? ----统计文件夹的大小信息

hadoop? fs -count /aaa? -???????????????????????????????????????????? ---统计一个指定目录下的文件节点数量

hadoop fs -setrep 3 /input/xx.txt?????????????????????????? --设置hdfs的文件副本数量

原文地址:http://blog.51cto.com/chaorenyong/2116880

时间: 2024-07-29 22:16:41

大数据之---hadoop常用命令大全终极篇的相关文章

大数据之---hadoop问题排查汇总终极篇---持续更新中

1.软件环境 RHEL6 角色 jdk-8u45 hadoop-2.8.1.tar.gz ? ssh xx.xx.xx.xx ip地址 NN hadoop1 xx.xx.xx.xx ip地址 DN hadoop2 xx.xx.xx.xx ip地址 DN hadoop3 xx.xx.xx.xx ip地址 DN hadoop4 xx.xx.xx.xx ip地址 DN hadoop5 本次涉及伪分布式部署只是要主机hadoop1 ? 2.启动密钥互信问题 HDFS启动 [[email protecte

大数据之伪分布式部署之终极篇

------------------------------软件版本-------------------------------------- RHEL6.8 hadoop2.8.1 apache-maven-3.3.9 ? ? ? findbugs-1.3.9 protobuf-2.5.0.tar.gz jdk-8u45 ------------------------------软件版本--------------------------------------- 1.Hadoop宏观:

大数据测试之hadoop命令大全

大数据测试之hadoop命令大全 1.列出所有Hadoop Shell支持的命令  $ bin/hadoop fs -help2.显示关于某个命令的详细信息  $ bin/hadoop fs -help command-name3.用户可使用以下命令在指定路径下查看历史日志汇总  $ bin/hadoop job -history output-dir这条命令会显示作业的细节信息,失败和终止的任务细节.4.关于作业的更多细节,比如成功的任务,以及对每个任务的所做的尝试次数等可以用下面的命令查看 

Linux常用命令大全(全面)

笔者在这篇文章中跟大家分享一下接近 100 个 Linux 常用命令大全,希望可以帮助到大家. 1.ls [选项] [目录名 | 列出相关目录下的所有目录和文件 1 2 3 4 5 6 7 8 9 10 11 12 13 14 -a 列出包括.a开头的隐藏文件的所有文件 -A 通-a,但不列出"."和".." -l 列出文件的详细信息 -c 根据ctime排序显示 -t 根据文件修改时间排序 ---color[=WHEN] 用色彩辨别文件类型 WHEN 可以是'ne

Hadoop Shell命令大全

hadoop支持命令行操作HDFS文件系统,并且支持shell-like命令与HDFS文件系统交互,对于大多数程序猿/媛来说,shell-like命令行操作都是比较熟悉的,其实这也是Hadoop的极大便利之一,至少对于想熟悉乃至尽快熟练操作HDFS的人来说. 由于平时在工作中经常用到Hadoop Shell命令来操作HDFS上的文件,有时候因为Hadoop Shell命令不熟悉,需要重新查找:或者需要某个命令的参数:再或者需要知晓相似命令的差异:于是便有了本文,对于Hadoop Shell命令的

Oracle常用命令大全

Oracle常用命令大全(很有用,做笔记) Posted on 2010-06-10 11:08 chinaifne 阅读(2) 评论(0)  编辑 收藏 一.ORACLE的启动和关闭 1.在单机环境下 要想启动或关闭ORACLE系统必须首先切换到ORACLE用户,如下 su - oracle a.启动ORACLE系统 oracle>svrmgrl SVRMGR>connect internal SVRMGR>startup SVRMGR>quit b.关闭ORACLE系统 ora

大数据:Hadoop入门

大数据:Hadoop入门 一:什么是大数据 什么是大数据: (1.)大数据是指在一定时间内无法用常规软件对其内容进行抓取,管理和处理的数据集合,简而言之就是数据量非常大,大到无法用常规工具进行处理,如关系型数据库,数据仓库等.这里“大”是一个什么量级呢?如在阿里巴巴每天处理数据达到20PB(即20971520GB). 2.大数据的特点: (1.)体量巨大.按目前的发展趋势来看,大数据的体量已经到达PB级甚至EB级. (2.)大数据的数据类型多样,以非结构化数据为主,如网络杂志,音频,视屏,图片,

Linux常用命令大全

系统信息 arch 显示机器的处理器架构(1) uname -m 显示机器的处理器架构(2) uname -r 显示正在使用的内核版本 dmidecode -q 显示硬件系统部件 - (SMBIOS / DMI) hdparm -i /dev/hda 罗列一个磁盘的架构特性 hdparm -tT /dev/sda 在磁盘上执行测试性读取操作 cat /proc/cpuinfo 显示CPU info的信息 cat /proc/interrupts 显示中断 cat /proc/meminfo 校验

Mac 學習系列之SVN环境配置及常用命令大全

Windows里面用SVN是比較方便和Easy的,mac下面的其實也一樣. mac下带有SVN因此只需要激活它–环境配置: svnadmin create $Path 用来下载一个svn程序即可 下载后就可以下载代码了. 以下是svn 常用命令大全: ??1.将文件checkout到本地目录 svn checkout path(path是服务器上的目录) 例如:svn checkout http://xxxxxxxxxxxx 简写:svn co 2.往版本库中添加新的文件 svn add fil