HDFS入门(1)

2015.07.12笔记

1.HDFS

Distributed File System(操作系统实现人机交互,最重要的功能是文件管理,使用文件管理系统,windows、Linux文件管理系统有共性:用户可创建文件/夹,删除,修改权限,修改源数据信息(创建、修改、访问时间等)。在操作系统中的文件或者数据的管理是通过文件系统实现的,文件系统是操作系统实现文件管理的一个重要的组成部分,操作系统将文件放置到硬件(硬盘,服务器能有一万多兆)当中进行管理。在服务器中,数据的储存管理是通过我们写的程序进行管理,当数据量多时,可在硬盘插槽增加硬盘(6个插槽),可分散到多个系统上,用户不需知道文件存储在哪个IP上(如www.Baidu.com域名对应到多台服务器)DFS分布式文件系统是数据分布在很多个文件系统,而DFS对应的是一个操作系统()数据量多,用户操作不方便,DFS分布式文件系统凌驾在操作系统所辖的文件管理系统中)

数据量越来越多,在一个操作系统管辖的范围存不下了,那么就分配到更多的操作系统管理的磁盘中,但是不方便管理和维护,因此迫切需要一种系统来管理多台机器上的文件,这就是分布式文件管理系统 。

是一种允许文件通过网络在多台主机上分享的文件系统,可让多机器上的多用户分享文件和存储空间。

通透性。让实际上是通过网络来访问文件的动作,由程序与用户看来,就像是访问本地的磁盘一般。

容错。即使系统中有某些节点脱机,整体来说系统仍然可以持续运作而不会有数据损失。

分布式文件管理系统很多,hdfs只是其中一种,不合适小文件(通过一定的策略将小文件变成大文件)。实现文件管理

?

HDFS的Shell(hdfs存储的都是大数据,shell是Linux操作系统的组成部分,hdfs属于hadoop软件的组成部分,在shell中使用特定命令调用hdfs接口中的命令)(ls蓝色字体是文件夹,绿色是文件)

调用文件系统(FS)Shell命令应使用 bin/hdfs dfs xxx 的形式。

所有的FS shell命令使用URI路径作为参数。

 URI格式是scheme://authority/path。HDFS的scheme是hdfs,对本地文件系统,scheme是file。其中scheme和authority参数都是可选的,如果未加指定,就会使用配置中指定的默认scheme。

 例如:/parent/child可以表示成hdfs://namenode:namenodePort/parent/child,或者更简单的/parent/child(假设配置文件是namenode:namenodePort)

大多数FS Shell命令的行为和对应的Unix Shell命令类似。

安装好(绿色文件是用于批量启动hadoop写的文件(照着写))

2.apache hadoop目录结构

(查看的脚本文件)(在java线程概念里面的方法set daemon给它传个true就可以让其变成精灵进程,精灵进程不停跑

查看进程

?

bin sbin 很重要(bin,系统操作命令,存放的都是命令脚本有两类.cmd是在windows下面的命令;sbin系统维护运营)

share(通过路径加载jar包)

?

logs 文件(学会看日志,分析日志,log历史日志,out是当前日志)

通过hdfs操作

hdfs 用法(中括号表示可选,安装hadoop改的配置文件可单独放到单独的文件夹中--config confir适用于很多变化的环境,工作环境使用的是默认目录下的配置文件)空格加command

?

dfs是在被支持的文件系统支持下运行一个文件系统的命令,可参考Linux命令

?

3.HDFS dfs命令

可见文档

注意点:启动进程的用户是super user,可以做任何事情

?

?

在版本2中(脚本没改才提示),不用关心

Hadoop1下使用的是hadoop,(hadoop2版本)dfs,执行结果一样

?

查看目录结构

?

bin/hdfs dfs -ls hdfs://192.168.80.100:9000/

-ls 后面跟的是hdfs访问路径(在配置文件中设置过,可跟主机名(执行hostname查看,端口9000是之前etc/Hadoop/core-site.xml文件配置的)或IP,9000后面的斜杠表示hdfs的根目录)(访问互联网必须通过通过协议http https ftp )

?

ls命令来自于

在配置etc/Hadoop/core-site.xml文件中设置过hdfs的访问路径

?

文件系统需组织结构,Linux是树状结构,hdfs的根目录(跟Linux不一样)


?

64位机装32位hadoop会出现警告信息(学习没影响,企业使用64位,32位的对内存大小有限制,软件最好通过源码编译成64位)可以通过源码编译hadoop

操作系统64位,hadoop是32位会提示错误

?

非常像Linux文件结构

4.常见HDFS命令

-表示没有副本数,最后一次访问时间

大小单位是字节(目录本身而言不含有数据,所以大小为0),后面是绝对路径(如何知道这些信息)

?

?

指的是文件夹

一级一级查看麻烦

?

注意是—R(Recursively递归使用大写)

-d(普通格式输出)

?

?

-h(默认是字节,加上后根据大小显示单位k,M)

?

简写,去掉hdfs://192.168.80.100:9000(运行时被运行环境补充上了,它是要找本地中是否有hdfs的配置文件,如果有就将里面特定的值给补充上fs.defaultFS)

?

?

?

通过执行命令区分

?

?

误以为是Linux(缺少目的地文件)

-cat

文件系统就是原封不动存取数据,mysql是文件管理系统,

-put

-cp(从hdfs到hdfs)

-copyToFile)(hdfs拷贝到Linux)

-chmod

chmod 777

?

用户/所在者,所在组,其他人(常用的权限是文件夹755,默认创建文件644)

?

?

?

ls什么都不跟默认/user/root

在hdfs下没有目录

currentUser的目录

?

?

?


?

时间: 2024-10-17 05:57:48

HDFS入门(1)的相关文章

HDFS入门详解

一. 前提和设计目标 1. 硬件错误是常态,因此需要冗余,这是深入到HDFS骨头里面去了 HDFS可能由成百上千的服务器所构成,每个服务器上存储着文件系统的部分数据.我们面对的现实是构成系统的组件数目是巨大的,而且任一组件都有可能失效,这意味着总是有一部分HDFS的组件是不工作的.因此错误检测和快速.自动的恢复是HDFS最核心的架构目标 2. 流式数据访问 即:数据批量读取而非随机读写(OLTP),Hadoop擅长的是数据分析而不是事物处理 3. 大规模数据集 HDFS上的一个典型文件大小一般都

HDFS 入门和基本操作

1.HDFS 是做什么的 Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS,hdfs是分布式计算中数据存储管理的基础,是基于流数据模式访问和处理超大文件的需求而开发的,可以运行于廉价的商用服务器上.它所具有的高容错.高可靠性.高可扩展性.高获得性.高吞吐率等特征为海量数据提供了不怕故障的存储,为超大数据集(Large Data Set)的应用处理带来了很多便利. 2.为什么选择 HDFS 存储数据 之所以选择 HDFS 存储数据,

关于 Hadoop 的那些事

Hadoop以前是,现在仍然是大数据批处理领域的王者.Hadoop逐渐完善的生态体系,也让Hadoop广泛应用于各行业. 本文首先介绍Hadoop的架构和原理,侧重于Map-Reduce计算部分.再以简单示例带大家入门. 一.Hadoop 介绍 Hadoop 是什么 Hadoop是一个开发和运行大规模数据分析程序的软件平台,是隶属Apache的一个用java语言实现的开源软件框架,在大量普通服务器组成的集群中对海量数据进行分布式计算. a java based software framewor

Reboot 技术沙龙——周五课堂简介

Reboot 技术沙龙----周五课堂,是由Reboot 创办的,每周五晚上九点定期举办的免费技术沙龙分享会.这里聚集着国内一线互联网工程师,专注于互联网运维开发分享与交流.欢迎广大工程师们参与和交流. 分享时间:每周五晚九点 分享形式:网络直播 分享嘉宾:各领域大神.Reboot 讲师.乐于分享的人等等 分享基地:Reboot 周五分享群 368573673 五月份,技术分享内容预告 NO.1  05月06日 主题:Hadoop 系列-必知必会 主讲人:前360分布式攻城狮 内容: Hadoo

_00017 Flume的体系结构介绍以及Flume入门案例(往HDFS上传数据)

博文作者:妳那伊抹微笑 个性签名:世界上最遥远的距离不是天涯,也不是海角,而是我站在妳的面前,妳却感觉不到我的存在 技术方向:hadoop,数据分析与挖掘 转载声明:可以转载, 但必须以超链接形式标明文章原始出处和作者信息及版权声明,谢谢合作! qq交流群:214293307  (期待与你一起学习,共同进步) # 学习前言 想学习一下Flume,网上找了好多文章基本上都说的很简单,只有一半什么的,简直就是坑爹,饿顿时怒火就上来了,学个东西真不容易,然后自己耐心的把这些零零碎碎的东西整理整理,各种

Sqoop2入门之导入关系型数据库数据到HDFS上(sqoop2-1.99.4版本)

sqoop2-1.99.4和sqoop2-1.99.3版本操作略有不同:新版本中使用link代替了老版本的connection,其他使用类似. sqoop2-1.99.4环境搭建参见:Sqoop2环境搭建 sqoop2-1.99.3版本实现参见:Sqoop2入门之导入关系型数据库数据到HDFS上 启动sqoop2-1.99.4版本客户端: $SQOOP2_HOME/bin/sqoop.sh client set server --host hadoop000 --port 12000 --web

大数据10小时入门Hadoop+HDFS+YARN+MapReduce+Spark视频教程

38套大数据,云计算,架构,数据分析师,Hadoop,Spark,Storm,Kafka,人工智能,机器学习,深度学习,项目实战视频教程 视频课程包含: 38套大数据和人工智能精品高级课包含:大数据,云计算,架构,数据挖掘实战,实时推荐系统实战,电视收视率项目实战,实时流统计项目实战,离线电商分析项目实战,Spark大型项目实战用户分析,智能客户系统项目实战,Linux基础,Hadoop,Spark,Storm,Docker,Mapreduce,Kafka,Flume,OpenStack,Hiv

Hadoop入门之hdfs

    大数据技术开篇之Hadoop入门[hdfs] 学习都是从了解到熟悉的过程,而学习一项新的技术的时候都是从这个技术是什么?可以干什么?怎么用?如何优化?这几点开始.今天这篇文章分为两个部分.一.hadoop概述  二.hadoop核心技术之一的hdfs的讲解. [hadoop概述] 一.hadoop是什么? Hadoop是一个由Apache基金会所开发的分布式系统基础架构.用户可以在不了解分布式底层细节的情况下,开发分布式程序.充分利用集群的威力进行高速运算和存储.Hadoop实现了一个分

Hadoop HDFS编程 API入门系列之HDFS_HA(五)

不多说,直接上代码. 代码 package zhouls.bigdata.myWholeHadoop.HDFS.hdfs3; import java.io.FileInputStream;import java.io.InputStream;import java.io.OutputStream;import java.net.URI; import org.apache.hadoop.conf.Configuration;import org.apache.hadoop.fs.FileSyst