云帆大数据学院_hdfs的Shell操作与管理

HDFS的Shell操作与管理

6.1 启动HDFS

Step01:格式化NameNode

[[email protected] hadoop-2.2.0]$ bin/hdfsnamenode –format

说明:namenode在格式化的时候会产生一个ClusterID。也可以在格式化的时候自定义指定ID:

bin/hdfsnamenode –format –clusterid yarn-cluster

Step02:启动NameNode

启动脚本在$HADOOP_HOME/sbin目录下,在命令行输入:sbin/hadoop-deamon.sh ,可以看到关于该命令的提示:

Usage:hadoop-daemon.sh [--config <conf-dir>] [--hosts hostlistfile] [--scriptscript] (start|stop) <hadoop-command> <args...>

启动NameNode:

[[email protected] hadoop-2.2.0]$sbin/hadoop-daemon.sh start namenode

验证:jps查看是否有NameNode进程

Step03:启动DataNode

[[email protected] hadoop-2.2.0]$sbin/hadoop-daemon.sh start datanode

验证:jps查看是否有DataNode

输入HDFS的Web监控地址: http://hadoop-yarn.dragon.org:50070

Step04:启动SecondaryNameNode

[[email protected] hadoop-2.2.0]$ sbin/hadoop-daemon.shstart secondarynamenode

验证:jps查看是否有SecondaryNameNode

输入SecondaryNameNode的管理地址: http://hadoop-yarn.dragon.org:50090

6.2日志分析

(1) 启动日志文件目录为: $HADOOP_HOME/logs

(2) 日志文件的格式 :【log】和【out】

.log:通过log4j记录的,记录大部分应用程序的日志信息

.out:记录标准输出和标准错误日志,少量记录

(1)  日志文件的命名规则

【框架名称-用户名-进程名-主机名-日志格式后缀】

6.3HDFS的Shell操作

(1)hdfs命令使用说明

在$HADOOP_HOME/bin目录下有个hdfs脚本,查看该命令的使用方法:

[[email protected] hadoop-2.2.0]$ bin/hdfs

执行上面的命令以后,就会列出关于hdfs命令的使用方法:

Usage:hdfs [--config confdir] COMMAND

where COMMAND is one of:

dfs                   run a filesystem command on the file systemssupported in Hadoop.

namenode-format     format the DFS filesystem

secondarynamenode    run the DFS secondary namenode

namenode            run the DFS namenode

journalnode          run the DFS journalnode

zkfc                 run the ZK Failover Controller daemon

datanode             run a DFS datanode

dfsadmin             run a DFS admin client

haadmin              run a DFS HA admin client

fsck                 run a DFS filesystem checking utility

balancer             run a cluster balancing utility

jmxget               get JMX exported values from NameNode orDataNode.

oiv                  apply the offline fsimage viewer to anfsimage

oev                  apply the offline edits viewer to an editsfile

fetchdt              fetch a delegation token from theNameNode

getconf              get config values from configuration

groups               get the groups which users belong to

snapshotDiff         diff two snapshots of a directory or diffthe

                     current directory contents with a snapshot

lsSnapshottableDir   list all snapshottable dirs owned by thecurrent user

                                              Use -help to seeoptions

portmap              run a portmap service

nfs3                 run an NFS version 3 gateway

Mostcommands print help when invoked w/o parameters.

(2)hdfsdfs命令使用说明

从上面可以看到,hdfs命令下面有很多命令,下面我们了解分布式文件系统相关的命令:

[[email protected] hadoop-2.2.0]$ bin/hdfs dfs

Usage:hadoop fs [generic options]

[-appendToFile<localsrc> ... <dst>]

[-cat[-ignoreCrc] <src> ...]

[-checksum<src> ...]

[-chgrp[-R] GROUP PATH...]

[-chmod[-R] <MODE[,MODE]... | OCTALMODE> PATH...]

[-chown[-R] [OWNER][:[GROUP]] PATH...]

[-copyFromLocal[-f] [-p] <localsrc> ... <dst>]

[-copyToLocal[-p] [-ignoreCrc] [-crc] <src> ... <localdst>]

[-count [-q] <path> ...]

[-cp[-f] [-p] <src> ... <dst>]

[-createSnapshot<snapshotDir> [<snapshotName>]]

[-deleteSnapshot<snapshotDir> <snapshotName>]

[-df[-h] [<path> ...]]

[-du[-s] [-h] <path> ...]

[-expunge]

[-get[-p] [-ignoreCrc] [-crc] <src> ... <localdst>]

[-getmerge [-nl] <src><localdst>]

[-help[cmd ...]]

[-ls[-d] [-h] [-R] [<path> ...]]

[-mkdir[-p] <path> ...]

[-moveFromLocal<localsrc> ... <dst>]

[-moveToLocal<src> <localdst>]

[-mv<src> ... <dst>]

[-put[-f] [-p] <localsrc> ... <dst>]

[-renameSnapshot<snapshotDir> <oldName> <newName>]

[-rm[-f] [-r|-R] [-skipTrash] <src> ...]

[-rmdir[--ignore-fail-on-non-empty] <dir> ...]

[-setrep[-R] [-w] <rep> <path> ...]

[-stat[format] <path> ...]

[-tail[-f] <file>]

[-test-[defsz] <path>]

[-text[-ignoreCrc] <src> ...]

[-touchz<path> ...]

[-usage[cmd ...]]

Genericoptions supported are

-conf<configuration file>     specify anapplication configuration file

-D<property=value>            usevalue for given property

-fs<local|namenode:port>      specifya namenode

-jt<local|jobtracker:port>    specifya job tracker

-files<comma separated list of files>   specify comma separated files to be copied to the map reduce cluster

-libjars<comma separated list of jars>   specify comma separated jar files to include in the classpath.

-archives<comma separated list of archives>   specify comma separated archives to be unarchived on the computemachines.

Thegeneral command line syntax is

bin/hadoopcommand [genericOptions] [commandOptions]

(3)hdfsdfs命令使用示例:

时间: 2024-08-03 00:52:27

云帆大数据学院_hdfs的Shell操作与管理的相关文章

云帆大数据学院_hdfs和YARN的启动方式

YARN的Shell操作与管理 7.1启动YARN YARN有2个守护线程:ResourceManager.NodeManager. [[email protected] hadoop-2.2.0]$sbin/yarn-daemon.sh start resourcemanager [[email protected] hadoop-2.2.0]$sbin/yarn-daemon.sh start nodemanager 7.2YARN Web管理界面 YARN管理地址: ResourceMan

云帆大数据学院_hadoop 2.2.0源码编译

2.1下载地址 1.ApacheHadoop(100%永久开源)下载地址: - http://hadoop.apache.org/releases.html - SVN:http://svn.apache.org/repos/asf/hadoop/common/branches/ 2.CDH(ClouderaDistributed Hadoop,100%永久开源)下载地址: - http://archive.cloudera.com/cdh4/cdh/4/(是tar.gz文件!) - http:

云帆大数据学院Hadoop 集群 ——机器信息分布表

1.分布式环境搭建采用4 台安装Linux 环境的机器来构建一个小规模的分布式集群. 其中有一台机器是Master 节点,即名称节点,另外三台是Slaver 节点,即数据节点.这四台机器彼此间通过路由器相连,从而实验相互通信以及数据传输.它们都可以通过路由器访问Internet,实验网页文档的采集.2.集群机器详细信息2.1 Master 服务器名称详细信息机器名称Master.Hadoop机器IP 地址192.168.1.2最高用户名称(Name) root最用用户密码(PWD) hadoop

企业级Hadoop 2.x入门系列之一Apache Hadoop 2.x简介与版本_云帆大数据学院

1.1 Hadoop简介 从Hadoop官网获得Hadoop的介绍:http://hadoop.apache.org/ (1)What Is Apache Hadoop? TheApache Hadoop project develops open-source software for reliable, scalable, distributed computing. TheApache Hadoop software library is a framework that allows f

Spark读取Hbase中的数据_云帆大数据分享

Spark读取Hbase中的数据 大家可能都知道很熟悉Spark的两种常见的数据读取方式(存放到RDD中):(1).调用parallelize函数直接从集合中获取数据,并存入RDD中:Java版本如下: 1 JavaRDD<Integer> myRDD = sc.parallelize(Arrays.asList(1,2,3)); Scala版本如下: 1 val myRDD= sc.parallelize(List(1,2,3)) 这种方式很简单,很容易就可以将一个集合中的数据变成RDD的初

复旦大学数学学院转入大数据学院的14级同学对高等代数课程的评价

以下是复旦大学数学学院转入大数据学院的14级同学对本人的高等代数课程的评价. 14级  孙宇明同学 作为一名14级复旦大学数学科学学院转大数据方向的学生,我的本科前两年是在数院度过的,也因此十分幸运的选择了谢启鸿老师的高等代数课,作为我在代数方面的入门课.随着年级升高,谢老师在大一这一年教授的高代知识,在我本科,尤其是大数据这一领域的学习和应用中,发挥了越来越重要的作用,主要体现在以下两个方面: 一.扎实基础.基本的代数学是大数据研究过程中重要的知识基础(比如主成分分析.线性回归和预测.高维正态

上海复旦大学大数据学院夏令营

2017-07-11  23:10:36 这几天一直在上海参加复旦大学的大数学院夏令营活动.9号开始,14号结束. 入住的宾馆是上海五角场这边的蓝天宾馆,应该来说是一个比较高档的宾馆了.这个夏令营总体来说体验到目前为止还是很不错的,主要是这个夏令营的主办方的组织显得很有诚意,不仅在酒店提供早餐,在学校里还有午餐的提供.院系的院长是范剑青教授,是个海龟,目前还是普林斯顿大学多个院系的教授.          夏令营的第一天,也就是昨天2017.07.10,早上是8点半去光华楼交材料和报道.之后有个

复旦大数据学院夏令营

2017-07-11  23:10:36 这几天一直在上海参加复旦大学的大数学院夏令营活动.9号开始,14号结束. 入住的宾馆是上海五角场这边的蓝天宾馆,应该来说是一个比较高档的宾馆了.这个夏令营总体来说体验到目前为止还是很不错的,主要是这个夏令营的主办方的组织显得很有诚意,不仅在酒店提供早餐,在学校里还有午餐的提供.院系的院长是范剑青教授,是个海龟,目前还是普林斯顿大学多个院系的教授. 夏令营的第一天,也就是昨天2017.07.10,早上是8点半去光华楼交材料和报道.之后有个简短的开营仪式,然

大数据计算引擎之Flink Flink状态管理和容错

原文地址:大数据计算引擎之Flink Flink状态管理和容错 有状态计算 在Flink架构体系中,有状态计算可以说是Flink非常重要的特征之一.有状态计算是指在程序计算过程中,在Flink程序内部,存储计算产生的中间结果,并提供给Functions 或 孙子计算结果使用.如图所示: 状态数据可以维系在本地存储中,这里的存储可以是 Flink 的堆内存或者堆外内存,也可以借助第三方的存储介质,例如:Flink中已经实现的RocksDB,当然用户也可以自己实现相应的缓存系统去存储状态信息,以完成