hadoop(五): shell命令

hdfs dfs


  • -cat URI : 查看文件内容
    1. hdfs dfs -cat hdfs dfs -cat hdfs://mycluster/user/root/rcc1
    2. hdfs dfs -cat file:///usr/hdp/2.4.2.0-258/hadoop/bin/rcc
  • -ls <args>: 查文件列表
    1. 返回格式:permissions number_of_replicas userid groupid filesize modification_date modification_time filename

      [[email protected] ~]# hdfs dfs -ls
      Found 4 items
      drwx------   - root hdfs          0 2016-09-01 21:00 .Trash
      drwxr-xr-x   - root hdfs          0 2016-08-12 12:29 .hiveJars
      -rw-r--r--   3 root hdfs        531 2016-09-01 12:53 mapred
      -rw-r--r--   3 root hdfs       1857 2016-09-01 12:44 rcc1
  • -mkdir <paths>   : 创建目录
    1. The behavior is much like unix mkdir -p creating parent directories along the path

      [[email protected] ~]# hdfs dfs -ls
      Found 4 items
      drwx------   - root hdfs          0 2016-09-01 21:00 .Trash
      drwxr-xr-x   - root hdfs          0 2016-08-12 12:29 .hiveJars
      -rw-r--r--   3 root hdfs        531 2016-09-01 12:53 mapred
      -rw-r--r--   3 root hdfs       1857 2016-09-01 12:44 rcc1
      [[email protected] ~]# hdfs dfs -mkdir hdfs://mycluster/user/root/zhu
      [[email protected] ~]# hdfs dfs -ls
      Found 5 items
      drwx------   - root hdfs          0 2016-09-01 21:00 .Trash
      drwxr-xr-x   - root hdfs          0 2016-08-12 12:29 .hiveJars
      -rw-r--r--   3 root hdfs        531 2016-09-01 12:53 mapred
      -rw-r--r--   3 root hdfs       1857 2016-09-01 12:44 rcc1
      drwxr-xr-x   - root hdfs          0 2016-09-02 04:35 zhu
  • -copyFromLocal <localsrc> URI: 上传文件,类似于put
  • -put <localsrc> ... <dst>
[[email protected] ~]# hdfs dfs -ls /user/root/zhu
[[email protected] ~]# hdfs dfs -put /usr/zhu/a1.png /user/root/zhu
[[email protected] ~]# hdfs dfs -copyFormLocal /usr/zhu/a2.png /user/root/zhu
-copyFormLocal: Unknown command
[[email protected] ~]# hdfs dfs -copyFromLocal /usr/zhu/a2.png /user/root/zhu
[[email protected] ~]# hdfs dfs -ls /user/root/zhu
Found 2 items
-rw-r--r--   3 root hdfs      86908 2016-09-02 04:48 /user/root/zhu/a1.png
-rw-r--r--   3 root hdfs      55823 2016-09-02 04:49 /user/root/zhu/a2.png
[[email protected] ~]#
  • -copyToLocal [-ignorecrc] [-crc] URI <localdst> : 下载到本地
  • -get [-ignorecrc] [-crc] <src> <localdst>

    [[email protected] ~]# clear
    [[email protected] ~]# hdfs dfs -ls /user/root/zhu
    Found 2 items
    -rw-r--r--   3 root hdfs      86908 2016-09-02 04:48 /user/root/zhu/a1.png
    -rw-r--r--   3 root hdfs      55823 2016-09-02 04:49 /user/root/zhu/a2.png
    [[email protected] ~]# hdfs dfs -copyToLocal hdfs://mycluster/user/root/zhu/a1.png /usr/zhu/tmp
    [[email protected] ~]# hdfs dfs -get /usr/root/zhu/a2.png /usr/zhu/tmp
    get: `/usr/root/zhu/a2.png‘: No such file or directory
    [[email protected] ~]# hdfs dfs -get /user/root/zhu/a2.png /usr/zhu/tmp
    [[email protected] ~]# cd /usr/zhu/tmp
    [[email protected] tmp]# ll
    total 144
    -rw-r--r-- 1 root root 86908 Sep  2 04:54 a1.png
    -rw-r--r-- 1 root root 55823 Sep  2 04:55 a2.png
    [[email protected] tmp]# 
    • -count [-q] <paths> :统计
      1. The output columns with -count are: DIR_COUNT, FILE_COUNT, CONTENT_SIZE FILE_NAME
      2. The output columns with -q are: QUOTA, REMAINING_QUATA, SPACE_QUOTA, REMAINING_SPACE_QUOTA

        [[email protected] tmp]# hdfs dfs -count /user/root/zhu
                   1            2             142731 /user/root/zhu
        [[email protected] tmp]# hdfs dfs -count -q /user/root/zhu
                none             inf            none             inf            1            2             142731 /user/root/zhu
        [[email protected] tmp]# 
    • -du [-s] [-h] URI [URI …]:  统计大小
      1. The -s option will result in an aggregate summary of file lengths being displayed, rather than the individual file
      2. The -h option will format file sizes in a "human-readable" fashion (e.g 64.0m instead of 67108864)

        [[email protected] tmp]# hdfs dfs -du -h /user/root/zhu
        84.9 K  /user/root/zhu/a1.png
        54.5 K  /user/root/zhu/a2.png
        [[email protected] tmp]# 
    • -rm -r [-skipTrash] URI [URI …]
      1. -r: Recursive version of delete

        [[email protected] tmp]# hdfs dfs -ls /user/root/zhu
        Found 1 items
        -rw-r--r--   3 root hdfs      86908 2016-09-02 05:03 /user/root/zhu/a1.png
        [[email protected] tmp]# hdfs dfs -rm -r /user/root/zhu
        16/09/02 05:04:29 INFO fs.TrashPolicyDefault: Namenode trash configuration: Deletion interval = 360 minutes, Emptier interval = 0 minutes.
        Moved: ‘hdfs://mycluster/user/root/zhu‘ to trash at: hdfs://mycluster/user/root/.Trash/Current
        [[email protected] tmp]# hdfs dfs -ls /user/root/zhu
        ls: `/user/root/zhu‘: No such file or directory
        [[email protected] tmp]# 
    • -touchz URI [URI …]
      1. Create a file of zero length

        [[email protected] tmp]# hdfs dfs -ls
        Found 4 items
        drwx------   - root hdfs          0 2016-09-02 05:02 .Trash
        drwxr-xr-x   - root hdfs          0 2016-08-12 12:29 .hiveJars
        -rw-r--r--   3 root hdfs        531 2016-09-01 12:53 mapred
        -rw-r--r--   3 root hdfs       1857 2016-09-01 12:44 rcc1
        [[email protected] tmp]# hdfs dfs -touchz a.txt
        [[email protected] tmp]# hdfs dfs -ls
        Found 5 items
        drwx------   - root hdfs          0 2016-09-02 05:02 .Trash
        drwxr-xr-x   - root hdfs          0 2016-08-12 12:29 .hiveJars
        -rw-r--r--   3 root hdfs          0 2016-09-02 05:08 a.txt
        -rw-r--r--   3 root hdfs        531 2016-09-01 12:53 mapred
        -rw-r--r--   3 root hdfs       1857 2016-09-01 12:44 rcc1
        [[email protected] tmp]# hdfs dfs -cat /user/root/a.txt
        [[email protected] tmp]# 
    时间: 2024-10-11 11:42:05

    hadoop(五): shell命令的相关文章

    Hadoop常用shell命令

    为了方便自己回顾记忆,将今天实验的hadoop命令总结一下,方便后续查看. 注意,下述命令是在hadoop/bin 下操作的. 1.hadoop fs -ls \    ->查看当前下面的所有目录. 2.hadoop fs -mkdir xxx ->创建xxx文件夹在hadoop文件系统上. 3.hadoop fs -rmr xxx -> 删除在文件系统上面创建的文件夹 4.hadoop fs -put /home/xuzhang/file1 xxx 将文件放入创建的xxx目录中 5.h

    【转】Hadoop FS Shell命令

    FS Shell 调用文件系统(FS)Shell命令应使用 bin/hadoop fs <args> 的形式. 所有的的FS shell命令使用URI路径作为参数.URI格式是scheme://authority/path .对 HDFS文件系统,scheme是hdfs ,对本地文件系统,scheme是file .其中scheme和 authority参数都是可选的,如果未加指定,就会使用配置中指定的默认scheme.一个HDFS文件或目录比如/parent/child 可 以表示成hdfs:

    hadoop入门:hadoop使用shell命令总结

    第一部分:Hadoop Bin后面根据项目的实际需要Hadoop Bin  包括:Hadoop  hadoop的Shellhadoop-config.sh 它的作用是对一些变量进行赋值     HADOOP_HOME(hadoop的安装目录).     HADOOP_CONF_DIR(hadoop的配置文件目录).HADOOP_SLAVES(--hosts指定的文件的地址)hadoop-daemon.sh 单节点启动hadoop-daemons.sh 启动slaves.sh和hadoop-dae

    hadoop[3]-shell命令操作

    hdfs的shell操作: 大致介绍(http://hadoop.apache.org/docs/r1.0.4/cn/hdfs_user_guide.html#Shell%E5%91%BD%E4%BB%A4)操作文件命令格式格式: hadoop fs 操作命令 参数 bin/hadoop fs -help 命令列出所有Hadoop Shell支持的命令.而 bin/hadoop fs -help command-name 命令能显示关于某个命令的详细信息,一些简单的命令: # 查看某个目录下有哪

    Hadoop Shell命令字典(可收藏)

    可以带着下面问题来阅读: 1.chmod与chown的区别是什麽?2.cat将路径指定文件的内容输出到哪里?3.cp能否是不同之间复制?4.hdfs如何查看文件大小?5.hdfs如何合并文件?6.如何显示当前路径下的所有文件夹和文件7.rm删除文件失败的原因什么?8.如何查看文件的创建时间9.查看文件命令的内容有哪些?能否说出三种?10.如何判断文件是否存在?11.如何创建0字节文件 对于命令,我们一次性记住,可能以后又忘记了,这里大家用到的时候,可以查看一下. 调用文件系统(FS)Shell命

    Hadoop学习第五次:HDFS的Shell命令

    调用文件系统(FS)Shell命令应使用 bin/hadoop fs 的形式.所有的FS shell命令使用URI路径作为参数.URI格式是scheme://authority/path.HDFS的scheme是hdfs,对本地文件系统,scheme是file.其中scheme和authority参数都是可选的,如果未加指定,就会使用配置中指定的默认scheme.例如:/parent/child可以表示成hdfs://namenode:namenodePort/parent/child,或者更简

    Java调用Shell命令和脚本,致力于hadoop/spark集群

    前言 说明的是,本博文,是在以下的博文基础上,立足于它们,致力于我的大数据领域! http://kongcodecenter.iteye.com/blog/1231177 http://blog.csdn.net/u010376788/article/details/51337312 http://blog.csdn.net/arkblue/article/details/7897396 第一种:普通做法 首先,编号写WordCount.scala程序. 然后,打成jar包,命名为WC.jar.

    hadoop2.5.2学习及实践笔记(五)—— HDFS shell命令行常见操作

    附:HDFS shell guide文档地址 http://hadoop.apache.org/docs/r2.5.2/hadoop-project-dist/hadoop-common/FileSystemShell.html 启动HDFS后,输入hadoop fs命令,即可显示HDFS常用命令的用法 [[email protected] hadoop-2.5.2]$ hadoop fs Usage: hadoop fs [generic options] [-appendToFile <lo

    云 &lt;Hadoop Shell命令&gt; (二)

    FS Shell 调用文件系统(FS)Shell命令应使用 bin/hadoop fs <args>的形式. 所有的的FS shell命令使用URI路径作为参数.URI格式是scheme://authority/path.对HDFS文件系统,scheme是hdfs,对本地文件系统,scheme是file.其中scheme和authority参数都是可选的,如果未加指定,就会使用配置中指定的默认scheme.一个HDFS文件或目录比如/parent/child可以表示成hdfs://nameno