HDFS 异构储存配置及基本命令操作

hadoop-2.8.4 部署我就不说了 网上一大堆

hdfs-site.xml datanode 储存路径挂载需要修改如下:

<property>
    <name>dfs.datanode.data.dir</name>
    <value>[DISK]file:///data/hdfs-disk/hadoop/dfs/data,[SSD]file:///data/hdfs-ssd/hadoop/dfs/data,[RAM_DISK]file:///data/hdfs-ram/hadoop/dfs/data</value>
</property>

我们假设你有 ssd/ram-disk 等挂载, 创建好以下目录

sudo mkdir -p /data/hadoop/dfs/name
sudo mkdir -p /data/hdfs-disk/hadoop/dfs/data
sudo mkdir -p /data/hdfs-ssd/hadoop/dfs/data
sudo mkdir -p /data/hdfs-ram/hadoop/dfs/data

sudo chown -R hadoop:hadoop /data/hadoop/dfs/name
sudo chown -R hadoop:hadoop /data/hdfs-disk/hadoop/dfs/data
sudo chown -R hadoop:hadoop /data/hdfs-ssd/hadoop/dfs/data
sudo chown -R hadoop:hadoop /data/hdfs-ram/hadoop/dfs/data

把一个默认[DISK]储存的文件变成[SSD]储存步骤 / 如果你想把一个目录下文件变成某种策略,也可以按照以下操作完成

1. hdfs dfs -put hadoop-2.8.4.tar.gz /
2. hdfs fsck /hadoop-2.8.4.tar.gz -files -locations -blocks
查看当前文件的blocks 所在节点 及储存类型如DISK/SSD等,默认上传都是DISK
3. hdfs storagepolicies -setStoragePolicy -path /hadoop-2.8.4.tar.gz -policy ONE_SSD
修改储存策略为ONE_SSD
4. hdfs mover -p /hadoop-2.8.4.tar.gz
执行修改的储存策略
5.hdfs fsck /hadoop-2.8.4.tar.gz -files -locations -blocks  或者 hdfs storagepolicies -getStoragePolicy -path /hadoop-2.8.4.tar.gz
查看发现已经有一个副本在SSD上了

如果你想把例如HBASE WALS目录指定成ALL_SSD策略,如下操作即可

1. hdfs dfs -mkdir /ssd
2. hdfs storagepolicies -setStoragePolicy -path /ssd -policy ALL_SSD
3. hadoop fs -put zookeeper-3.4.6.jar /ssd/
4. hdfs fsck /ssd/zookeeper-3.4.6.jar -files -locations -blocks 或者 hdfs storagepolicies -getStoragePolicy -path /ssd/zookeeper-3.4.6.jar
查看得知 /ssd/zookeeper-3.4.6.jar 已经是ssd储存了
The storage policy of /ssd/zookeeper-3.4.6.jar:
BlockStoragePolicy{ALL_SSD:12, storageTypes=[SSD], creationFallbacks=[DISK], replicationFallbacks=[DISK]}

在hdfs中存储策略分为以下几种:

HOT:用于存储热数据,默认情况,hdfs的数据都采用的是HOT策略,所有的副本都存储在DISK中。
COLD:用于存储冷数据,所有的数据副本存储在ARCHIV中。
Warm:有些数据存在DISK中,有些做归档处理 。
All_SSD:所有的数据副本都存储在SSD中。
One_SSD:将数据的一个副本存储在SSD中,其余的副本存储在磁盘中。
Lazy_Persist:用于在内存中写入单个副本的块。该副本首先在RAM_DISK中写入,后续持久化到DISK中。

常用命令:

1.切换到hdfs用户,查看当前有哪些存储策略可以用
hdfs storagepolicies –listPolicies

2.获取指定路径的存储策略
hdfs storagepolicies -getStoragePolicy -path /user

3. 指定路径的储存策略 文件目录均可
hdfs storagepolicies -setStoragePolicy -path /hadoop-2.8.4.tar.gz -policy ONE_SSD

4.执行修改的储存策略的文件 一般需要花一些时间
例如之前他是[DISK]  /hadoop-2.8.4.tar.gz ,然后你指定了储存策略为[ONE_SSD] 然后执行  hdfs mover -p /hadoop-2.8.4.tar.gz 后, 有一个副本就在ssd上了
 hdfs mover -p /hadoop-2.8.4.tar.gz

原文地址:https://www.cnblogs.com/jiangxiaoxian/p/9392313.html

时间: 2024-08-30 14:03:24

HDFS 异构储存配置及基本命令操作的相关文章

RHEL7基本命令操作

注意事项: [[email protected] ~]# df -h | grep sr0 /dev/sr0               3.8G  3.8G    0 100% /mnt 如果查看到的结果不是/mnt,则执行卸载命令,先进行卸载 [[email protected] ~]#umount /dev/sr0   [[email protected] ~]# echo "/dev/sr0 /mnt iso9660  defaults  0 0" >>  /etc

Linux零基础入学之1-3 RHEL7基本命令操作和启动级别设置

§Linux零基础入学之1-3 RHEL7基本命令操作和启动级别设置 [本节内容] *Linux终端介绍 *shell提示符 *Bash shell基本语法 *基本命令的使用:ls.pwd.cd *查看系统折BIOS设置 *Linux如何获得帮助 *Linux关机命令:shutdown.init 0等 *Linux 7个启动级别 *设置服务器在来电后自动开机 [Linux终端介绍] tty    控制台终端 pts    代表虚拟终端 tty1-tty6 > 刚进入的图形界面(桌面)为tty1

路由器的基本命令操作

实验一  路由器的基本命令操作 实验要求: 1.       路由器名:CCNA 2.       设置password为cisco1,secret为cisco2,vty为cisco3,并要求所有密码都加密. 3.       配置以太网口的IP为202.119.249.219 4.       设置登陆提示信息 5.       对串行口进行描述(描述信息) 6.       将上述信息保存到tftp server 7.       将实验过程配置写在记事本中进行粘贴: 实验过程: en co

Centos7.5-Linux基本命令操作

本节所讲内容: - 3.1 Linux终端介绍 Shell提示符 Bash Shell基本语法 - 3.2 基本命令的使用:ls.pwd.cd.history - 3.3 查看系统和BIOS硬件时间 - 3.4 Linux如何获得帮助 - 3.5 开关机命令及7个启动级别 - 3.6 实战:设置服务器来电后自动开机 - 3.7 实战:设置服务器定时开机 3.1 Linux终端介绍.Shell提示符.Bash基本语法 3.1.1 登录LINUX终端 两种终端仿真器:1.GNOME桌面的GHOME

HDFS和Hbase配置同步

在Hbase中服务器先读取hbase-defalut.xml文件,然后读取hbase-site.xml文件,也就是说后者会覆盖前者 hbase的配置中有一些和hdfs关联的配置,当hdfs中修改了,但是hbase中修改了,hbase中是不会知道的,比如 dfs.replication,有时候我们想增加备份的数量,在hdfs中设置为5了,但是hbase中默认为3,这样hbase还是只保存3份. 那么有什么方法可以使他们的配置文件同步,有三种方法: (1)在hbase-env.sh的HBASE_CL

win server core 基本命令操作

win server core 基本命令 刚安装好的WIN SERVER CORE 桌面上没有任何图标,想要运行DOS环境,按下CTRL+ALT+DELETE,任务管理器里新建任务CMD即可打开DOS界面. 查看计算机名称:hostname 更改计算机名称:netdom renamecomputer computername(现计算机名称) /newname:computername(新计算机名称) 更改本地连接的IP地址,子网掩码,网关信息: netsh interface ipv4 set

flume从kafka读取数据到hdfs中的配置

#source的名字 agent.sources = kafkaSource # channels的名字,建议按照type来命名 agent.channels = memoryChannel # sink的名字,建议按照目标来命名 agent.sinks = hdfsSink # 指定source使用的channel名字 agent.sources.kafkaSource.channels = memoryChannel # 指定sink需要使用的channel的名字,注意这里是channel

linux基本命令操作(一)

常用系统命令: [[email protected] ~]# uname    //查看内核信息// Linux [[email protected] ~]# uname  -r       //只显示内核版本// 2.6.18-348.el5 [[email protected] ~]# uname  -a       //显示主机名.内核.硬件平台等全部信息a--all// Linux localhost.localdomain 2.6.18-348.el5 #1 SMP Wed Nov 2

linux基本命令操作(二)

·        du命令使用: [[email protected]]# du       //后没有选项和参数,默认评估当前目录下的所有目录的大小,当然也包括当前目录的大小// 237     ./grub 12      ./lost+found 6555    . [[email protected]]# ls config-2.6.18-348.el5  initrd-2.6.18-348.el5.img  System.map-2.6.18-348.el5 file1.txt]