Hadoop shell

常用管理命令 

Hadoop管理员的常用命令。

启动Hadoop

进入HADOOP_HOME目录。

执行sh bin/start-all.sh

关闭Hadoop

进入HADOOP_HOME目录。

执行sh bin/stop-all.sh

balancer 

运行集群平衡工具。管理员可以简单的按Ctrl-C来停止平衡过程。参考Rebalancer了解更多。

用法:hadoop balancer [-threshold <threshold>]

命令选项 描述

-threshold <threshold> 磁盘容量的百分比。这会覆盖缺省的阀值。

daemonlog 

获取或设置每个守护进程的日志级别。

用法:hadoop daemonlog -getlevel <host:port> <name>

用法:hadoop daemonlog -setlevel <host:port> <name> <level>

dfsadmin 

运行一个HDFS的dfsadmin客户端。

用法:hadoop dfsadmin [GENERIC_OPTIONS] [-report] [-safemode enter | leave | get | wait] [-refreshNodes] [-finalizeUpgrade] [-upgradeProgress status | details | force] [-metasave filename] [-setQuota <quota> <dirname>...<dirname>] [-clrQuota <dirname>...<dirname>] [-help [cmd]]

命令选项 描述

-report 报告文件系统的基本信息和统计信息。

-safemode enter | leave | get | wait 安全模式维护命令。

-refreshNodes 重新读取hosts和exclude文件,更新允许连到Namenode的或那些需要退出或入编的Datanode的集合。

-finalizeUpgrade 终结HDFS的升级操作。Datanode删除前一个版本的工作目录,之后Namenode也这样做。这个操作完结整个升级过程。

-upgradeProgress status | details | force 请求当前系统的升级状态,状态的细节,或者强制升级操作进行。

-metasave filename 保存Namenode的主要数据结构到hadoop.log.dir属性指定的目录下的<filename>文件。对于下面的每一项,<filename>中都会一行内容与之对应

1. Namenode收到的Datanode的心跳信号

2. 等待被复制的块

3. 正在被复制的块

4. 等待被删除的块

-setQuota <quota> <dirname>...<dirname> 为每个目录 <dirname>设定配额<quota>。目录配额是一个长整型整数,强制限定了目录树下的名字个数。

-clrQuota <dirname>...<dirname> 为每一个目录<dirname>清除配额设定。

-help [cmd] 显示给定命令的帮助信息,如果没有给定命令,则显示所有命令的帮助信息。

jobtracker 

运行MapReduce job Tracker节点。

用法:hadoop jobtracker

namenode 

运行namenode。有关升级,回滚,升级终结的更多信息请参考升级和回滚。

用法:hadoop namenode [-format] | [-upgrade] | [-rollback] | [-finalize] | [-importCheckpoint]

命令选项描述 :

-format 格式化namenode。它启动namenode,格式化namenode,之后关闭namenode。

-upgrade 分发新版本的hadoop后,namenode应以upgrade选项启动。

-rollback 将namenode回滚到前一版本。这个选项要在停止集群,分发老的hadoop版本后使用。

-finalize finalize会删除文件系统的前一状态。最近的升级会被持久化,rollback选项将再不可用,升级终结操作之后,它会停掉namenode。

-importCheckpoint 从检查点目录装载镜像并保存到当前检查点目录,检查点目录由fs.checkpoint.dir指定。

secondarynamenode 

运行HDFS的secondary namenode。

用法:hadoop secondarynamenode [-checkpoint [force]] | [-geteditsize]

tasktracker 

运行MapReduce的task Tracker节点。 
用法:hadoop tasktracker

用户命令

hadoop集群用户的常用命令。

version 

打印版本信息。

用法:hadoop version

archive 

创建一个hadoop档案文件。

用法:hadoop archive -archiveName NAME <src>* <dest>

命令选项 描述

-archiveName NAME 要创建的档案的名字。

src 文件系统的路径名,和通常含正则表达的一样。

dest 保存档案文件的目标目录。

distcp 

递归地拷贝文件或目录。

用法:hadoop distcp <srcurl> <desturl>

命令选项 描述

srcurl 源Url

desturl 目标Url

fs

用法:hadoop fs [GENERIC_OPTIONS] [COMMAND_OPTIONS]

运行一个常规的文件系统客户端。

各种命令选项可以参考HDFS Shell部分。

fsck 

运行HDFS文件系统检查工具。

用法:hadoop fsck [GENERIC_OPTIONS] <path> [-move | -delete | -openforwrite] [-files [-blocks [-locations | -racks]]]

命令选项 描述

<path> 检查的起始目录。

-move 移动受损文件到/lost+found

-delete 删除受损文件。

-openforwrite 打印出写打开的文件。

-files 打印出正被检查的文件。

-blocks 打印出块信息报告。

-locations 打印出每个块的位置信息。

-racks 打印出data-node的网络拓扑结构。

jar

运行jar文件。用户可以把他们的Map Reduce代码捆绑到jar文件中,使用这个命令执行。

用法:hadoop jar <jar> [mainClass] args...

job 

用于和Map Reduce作业交互和命令。

用法:hadoop job [GENERIC_OPTIONS] [-submit <job-file>] | [-status <job-id>] | [-counter <job-id> <group-name> <counter-name>] | [-kill <job-id>] | [-events <job-id> <from-event-#> <#-of-events>] | [-history [all] <jobOutputDir>] | [-list [all]] | [-kill-task <task-id>] | [-fail-task <task-id>]

命令选项 描述

-submit <job-file> 提交作业

-status <job-id> 打印map和reduce完成百分比和所有计数器。

-counter <job-id> <group-name> <counter-name> 打印计数器的值。

-kill <job-id> 杀死指定作业。

-events <job-id> <from-event-#> <#-of-events> 打印给定范围内jobtracker接收到的事件细节。

-history [all] <jobOutputDir> -history <jobOutputDir> 打印作业的细节、失败及被杀死原因的细节。更多的关于一个作业的细节比如成功的任务,做过的任务尝试等信息可以通过指定[all]选项查看。

-list [all] -list all显示所有作业。-list只显示将要完成的作业。

-kill-task <task-id> 杀死任务。被杀死的任务不会不利于失败尝试。

-fail-task <task-id> 使任务失败。被失败的任务会对失败尝试不利。

pipes

运行pipes作业。

用法:hadoop pipes [-conf <path>] [-jobconf <key=value>, <key=value>, ...] [-input <path>] [-output <path>] [-jar <jar file>] [-inputformat <class>] [-map <class>] [-partitioner <class>] [-reduce <class>] [-writer <class>] [-program <executable>] [-reduces <num>]

命令选项 描述

-conf <path> 作业的配置

-jobconf <key=value>, <key=value>, ... 增加/覆盖作业的配置项

-input <path> 输入目录

-output <path> 输出目录

-jar <jar file> Jar文件名

-inputformat <class> InputFormat类

-map <class> Java Map类

-partitioner <class> Java Partitioner

-reduce <class> Java Reduce类

-writer <class> Java RecordWriter

-program <executable> 可执行程序的URI

-reduces <num> reduce个数

CLASSNAME 

hadoop脚本可用于调调用任何类。

用法:hadoop CLASSNAME

运行名字为CLASSNAME的类。

Hadoop shell

时间: 2024-10-14 00:24:39

Hadoop shell的相关文章

Hadoop Shell命令大全

hadoop支持命令行操作HDFS文件系统,并且支持shell-like命令与HDFS文件系统交互,对于大多数程序猿/媛来说,shell-like命令行操作都是比较熟悉的,其实这也是Hadoop的极大便利之一,至少对于想熟悉乃至尽快熟练操作HDFS的人来说. 由于平时在工作中经常用到Hadoop Shell命令来操作HDFS上的文件,有时候因为Hadoop Shell命令不熟悉,需要重新查找:或者需要某个命令的参数:再或者需要知晓相似命令的差异:于是便有了本文,对于Hadoop Shell命令的

hadoop shell 操作复制

hadoop fs 列出所有的命令hadoop fs -help ls 列出某个命令的详细信息hadoop dfs -mkdir /data/weblogshadoop dfs -mkdir /data/dir1 /data/dir2 ... 创建文件夹,可以递归创建,可同时创建多个目录echo "Hello world" > weblog_entries.txt 创建新的本地文件(无则新建)hadoop fs -copyFromLocal weblog_entries.txt

云 &lt;Hadoop Shell命令&gt; (二)

FS Shell 调用文件系统(FS)Shell命令应使用 bin/hadoop fs <args>的形式. 所有的的FS shell命令使用URI路径作为参数.URI格式是scheme://authority/path.对HDFS文件系统,scheme是hdfs,对本地文件系统,scheme是file.其中scheme和authority参数都是可选的,如果未加指定,就会使用配置中指定的默认scheme.一个HDFS文件或目录比如/parent/child可以表示成hdfs://nameno

Hadoop Shell命令详解

     说明:调用文件系统(FS)Shell命令应使用bin/hadoop fs <args>的形式.所有的的FS shell命令使用URI路径作为参数. 1.cat 说明:将路径指定文件的内容输出到stdout. 用法:hadoop fs -cat URI [URI -] 范例: hadoop fs -cat hdfs://host1:port1/file1 hdfs://host2:port2/file2 hadoop fs -cat file:///file3/user/hadoop/

Hadoop Shell命令字典(可收藏)

可以带着下面问题来阅读: 1.chmod与chown的区别是什麽?2.cat将路径指定文件的内容输出到哪里?3.cp能否是不同之间复制?4.hdfs如何查看文件大小?5.hdfs如何合并文件?6.如何显示当前路径下的所有文件夹和文件7.rm删除文件失败的原因什么?8.如何查看文件的创建时间9.查看文件命令的内容有哪些?能否说出三种?10.如何判断文件是否存在?11.如何创建0字节文件 对于命令,我们一次性记住,可能以后又忘记了,这里大家用到的时候,可以查看一下. 调用文件系统(FS)Shell命

Hadoop Shell命令(基于linux操作系统上传下载文件到hdfs文件系统基本命令学习)

Apache-->hadoop的官网文档命令学习:http://hadoop.apache.org/docs/r1.0.4/cn/hdfs_shell.html FS Shell 调用文件系统(FS)Shell命令应使用 bin/hadoop fs <args>的形式. 所有的的FS shell命令使用URI路径作为参数.URI格式是scheme://authority/path.对HDFS文件系统,scheme是hdfs,对本地文件系统,scheme是file.其中scheme和aut

Hadoop Shell命令

FS Shell cat chgrp chmod chown copyFromLocal copyToLocal cp du dus expunge get getmerge ls lsr mkdir movefromLocal mv put rm rmr setrep stat tail test text touchz FS Shell 调用文件系统(FS)Shell命令应使用 bin/hadoop fs <args>的形式. 所有的的FS shell命令使用URI路径作为参数.URI格式

Hadoop Shell命令官网翻译

http://hadoop.apache.org/docs/stable/hadoop-project-dist/hadoop-common/FileSystemShell.html#Overview FS Shell 调用文件系统(FS)Shell命令应使用 bin/hadoop fs <args>的形式. 所有的的FS shell命令使用URI路径作为参数.URI格式是scheme://authority/path.对HDFS文件系统,scheme是hdfs,对本地文件系统,scheme是

hadoop shell 操作命令

shell操作命令: hdfs的路径,在core-site.xml中定义 <property> <name>fs.default.name</name> <value>hdfs://master.hadoop:9000</value>   master.hadoop namenode主机名 </property> 用/ 代替当前绝对路径 hadoop fs -ls /  查看hdfs的根目录下的内容 hadoop fs -lsr /