HDFS集群安装

DFS集群安装:
1.准备工作
(1)虚拟机(电脑8G 磁盘500GB)
(2)3台linux系统(1台namenode 2台datanode)
2.安装HDFS(软件)
(1)关闭防火墙
firewall-cmd --state 查看防火墙状态
systemctl stop firewalld.service 关闭防火墙
systemctl disable firewalld.service 禁止开机启动

(2)远程连接(CRT或者Xshell)

(3)永久设置主机名
vi /etc/hostname
注意:要reboot重启

(4)配置映射文件
vi /etc/hosts
192.168.80.10 master
192.168.80.11 slave1
192.168.80.12 slave2

(5)安装jdk
tar -zxvf jdk-8u121-linux-x64.tar.gz
vi /etc/profile 

export JAVA_HOME=/root/hd/jdk1.8.0_121
export PATH=$PATH:$JAVA_HOME/bin

source /etc/profile 声明环境变量
scp -r /root/hd/jdk1.8.0_121  [email protected]:/root/hd/jdk1.8.0_121   把解压好的jdk拷贝到slave1机器上

(6)配置免密登录
ssh-keygen 生成密钥对
ssh-copy-id master
ssh-copy-id slave1
ssh-copy-id slave2

3.安装HDFS
(1)解压tar包
tar -zxvf hadoop-2.8.4.tar.gz

(2)修改配置文件
cd /root/hd/hadoop-2.8.4/etc/hadoop1) vi core-site.xml修改
<configuration>
  <property>
    <name>fs.defaultFS</name>
    <value>hdfs://master:9000</value>
  </property>
</configuration>

2) vi hdfs-site.xml修改
<configuration>
  <property>
    <name>dfs.namenode.name.dir</name>
  <value>/root/dfs/name</value>
</property>

<property>
  <name>dfs.datanode.data.dir</name>
    <value>/root/dfs/data</value>
  </property>
</configuration>

3) vi hadoop-env.sh 文件中增加# export JAVA_HOME=你的java路径export JAVA_HOME=/root/hd/jdk1.8.0_121

4) vi slaves   添加两个子节点(datanode)slave1slave2
(3)配置hadoop环境变量
vi /etc/profile
export JAVA_HOME=/root/hd/jdk1.8.0_121
export PATH=$PATH:$JAVA_HOME/bin
export HADOOP_HOME=/root/hd/hadoop-2.8.4
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

(4)格式化namenode
hadoop namenode -format

(5)启动hdfs
hadoop-daemon.sh start namenode
hadoop-daemon.sh start datanode

(6)访问web端口
master:50070

(7)自动启动脚本
单节点启动:hadoop-deamon.sh start namenode
hadoop-deamon.sh start datanode

集群启动:start-dfs.sh

4.hdfs客户端命令

1)查看存储的文件
hdfs dfs -cat /

2)上传数据
hdfs dfs -put 文件 /路径

3)剪切文件到hdfs
hdfs dfs -moveFromLocal hunter.txt /haha.txt

4)下载数据到本地
hdfs dfs -get /路径 路径

5)创建文件夹
hdfs dfs -mkdir /文件夹

6)强制创建文件夹
hdfs dfs -mkdir -p /文件夹/文件夹

原文地址:https://www.cnblogs.com/areyouready/p/9716447.html

时间: 2024-10-10 19:47:42

HDFS集群安装的相关文章

HDFS集群安装部署

1-> 集群的准备工作 1)关闭防火墙(进行远程连接) systemctl stop firewalld  systemctl -disable firewalld 2)永久修改设置主机名  vi /etc/hostname 注意:需要重启生效->reboot 3)配置映射文件 vi /etc/hosts #127.0.0.1   localhost localhost.localdomain localhost4 localhost4.localdomain4 #::1         lo

大数据(2)---HDFS集群搭建

一.准备工作 1.准备几台机器,我这里使用VMware准备了四台机器,一个name node,三个data node. VMware安装虚拟机:https://www.cnblogs.com/nijunyang/p/12001312.html 2.Hadoop生态几乎都是用的java开发的,因此四台机器还需要安装JDK. 3.集群内主机域名映射,将四台机器的IP和主机名映射分别写到hosts文件中(切记主机名不要带非法字符,图片中的下划线”_”请忽略) vim /etc/hosts 配好一个之后

Spark2.1集群安装(standalone模式)

机器部署 准备三台Linux服务器,安装好JDK1.7 下载Spark安装包 上传spark-2.1.0-bin-hadoop2.6.tgz安装包到Linux(intsmaze-131)上 解压安装包到指定位置tar -zxvf spark-2.1.0-bin-hadoop2.6.tgz -C /home/hadoop/app/spark2.0/ 原文和作者一起讨论:http://www.cnblogs.com/intsmaze/p/6569036.html 微信:intsmaze 配置Spar

CentOS7+Hadoop2.7.2(HA高可用+Federation联邦)+Hive1.2.1+Spark2.1.0 完全分布式集群安装

1       VM网络配置... 3 2       CentOS配置... 5 2.1             下载地址... 5 2.2             激活网卡... 5 2.3             SecureCRT. 5 2.4             修改主机名... 6 2.5             yum代理上网... 7 2.6             安装ifconfig. 8 2.7             wget安装与代理... 8 2.8       

Hadoop2.6(NN/RM)高可用集群安装与部署

Hadoop2对HDFS的改进很大,支持HDFS(NameNode) 和ResourceManager高可用性,避免集群中单点故障造成整个集群不可用.那么,从本文开始将部署一套高可用Hadoop集群及家族中相关开源系统,具体根据下面规划来,本文只部署高可用Hadoop集群,后续很快更新其他软件部署. 一.部署前准备 1. 节点分配 HostName IP Hadoop HBase Zookeeper Hive HMaster0 192.168.18.215 NameNode HMaster /

Hadoop1.1 和Hadoop 2.4 集群安装版

目录 1 环境准备... 4 1.1 硬件配置... 4 1.2 软件... 4 1.3 网络拓扑结构... 4 1.4 系统分区... 5 1.5 虚拟机配置... 5 1.6 SSH免密码登录... 5 1.7 JDK安装... 7 2 Hadoop1.2.1安装及配置... 8 2.1 下载Hadoop安装介质... 8 2.2 解压Hadoop安装介质... 9 2.3 Hadoop配置文件... 9 2.4 复制Hadoop安装介质... 10 2.5 配置HADOOP_HOME. 1

Hadoop多节点集群安装配置

目录: 1.集群部署介绍 1.1 Hadoop简介 1.2 环境说明 1.3 环境配置 1.4 所需软件 2.SSH无密码验证配置 2.1 SSH基本原理和用法 2.2 配置Master无密码登录所有Salve 3.Java环境安装 3.1 安装JDK 3.2 配置环境变量 3.3 验证安装成功 3.4 安装剩余机器 4.Hadoop集群安装 4.1 安装hadoop 4.2 配置hadoop 4.3 启动及验证 4.4 网页查看集群 5.常见问题FAQ   5.1 关于 Warning: $H

第54课:Hive集群安装和测试

一.Hive集群安装 1,安装好Hadoop,并启动HDFS和YARN. 2,下载hive 1.2.1 http://apache.fayea.com/hive/hive-1.2.1/ apache-hive-1.2.1-bin.tar.gz 上传文件至集群中 3. 安装Hive [email protected]:~# ls apache-hive-1.2.1-bin.tar.gz  core  links-anon.txtaaa  公共的  模板  视频  图片  文档  下载  音乐  桌

presto集群安装&整合hive|mysql|jdbc

Presto是一个运行在多台服务器上的分布式系统. 完整安装包括一个coordinator(调度节点)和多个worker. 由客户端提交查询,从Presto命令行CLI提交到coordinator. coordinator进行解析,分析并执行查询计划,然后分发处理队列到worker中. 目录: 搭建前环境准备 集群计划 连接器 安装步骤 配置文件 运行presto 整合hive测试 整合mysql测试 整合jdbc测试 1.搭建前环境准备 CentOS 6.7 java8 Python3.4.4