Hadoop的伪分布式搭建

我们在搭建伪分布式Hadoop环境,需要将一系列的配置文件配置好。
一、配置文件
1. 配置文件hadoop-env.sh
export JAVA_HOME=/opt/modules/jdk1.7.0_67
2. 配置core-site.xml

dfs.defaultFS
hdfs://hostname:8020

hadoop.tmp.dir
/opt/modules/hadoop-2.5.0/data/tmp

  1. 配置hdfs-site.xml

    dfs.replication
    3

  2. 配置yarn-site.xml

    yarn.nodemanager.aux-services
    mapreduce_shuffle

  3. 配置mapred-site.xml

    mapreduce.framework.name
    yarn

二、启动HDFS
1,格式化NameNode
bin/hdfs namenode -format
2,启动NameNode
bin/hadoop.daemon.sh start namenode
3,启动DataNode
bin/hadoop.daemon.sh start datanode
4,HDFS的WEB监控页面:
http://hostname:50070
5,启动SecondaryNameNode
bin/hadoop.daemon.sh start secondarynamenode
6,SecondaryNameNode的WEB监控页面:
http://hostname:50090

三、日志文件
启动每个守护进程会产生两个log文件,文件路径为$HADOOP_HOME/logs目录下,文件的格式为【.log】和【.out】
.log:log4j记录,记录大部分应用程序的日志信息
.out:记录标准输出和标准错误日志,少量记录
日志的命名规则:【框架名+用户名+进程名+主机名+日志格式】

四、启动YARN
1,启动ResourceManager
bin/yarn-daemon.sh start resourcemanager
2,启动NodeManager
bin/yarn-daemon.sh start nodemanager
3,YARN的WEB监控界面:
http://hostname:8088 resourcemanager
http”//hostname:8042 nodemanager

五、历史服务器
1,启动历史服务器
bin/mr-jobhistory-daemon.sh start historyserver
2,历史服务器监控界面
http://hostname:19888

时间: 2024-08-04 21:29:40

Hadoop的伪分布式搭建的相关文章

hadoop2.2.0伪分布式搭建

一.准备linux环境 1.更改VMware适配器设置 由于是在单机环境下进行学习的,因此选择适配器模式是host-only模式,如果想要联网,可以选择桥接模式,配置的方式差不多. 点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改subnet ip 设置网段:192.168.85.0 子网掩码:255.255.255.0 -> apply -> ok 回到windows --> 打开网络

Hadoop - Hadoop伪分布式搭建

进行Hadoop伪分布式搭建时,需要有一定的Linux命令基础, 因为Hadoop是搭建在Linux环境上的开源框架, Hadoop的框架最核心的设计就是:HDFS和MapReduce. 本文也主要讲述HDFS和MapReduce环境的搭建. 搭建环境: 虚拟机: VMware10 操作系统:CentOS-6.5 JDK版本:jdk-8u171-linux-x64 Hadoop版本:hadoop-2.7.3 使用工具:Xshell 6,Xftp 6,Notepad++ 虚拟机ip地址:192.1

Hadoop之伪分布式安装

一.Hadoop的安装模式有3种 ①单机模式:不能使用HDFS,只能使用MapReduce,所以单击模式主要用于测试MR程序. ②伪分布式模式:用多个线程模拟真实多台服务器,即模拟真实的完全分布式环境. ③完全分布式模式:用多台机器(或启动多个虚拟机)来完成部署集群. 二.安装主要涉及以下内容: ①JDK ②配置主机名.hosts文件以及免密登录 ③修改hadoop的配置文件,主要涉及以下几个配置文件(hadoop-2.7.7/etc/hadoop) 1)hadoop-env.sh:这里主要修改

大数据伪分布式搭建

大数据伪分布式搭建 ***对于大数据这块相信大家对linux有一定的认识,所有对创建虚拟机那块就不给予详细的说明了. 基础环境的搭建 1.系统环境 平台:VMware Workstation pro 系统:centos 7 Hadoop版本: Apache Hadoop 3.0.0 本次实验是搭建一台master和两台node节点.因为我们主要的目的是想让大家了解一下Hadoop伪分布式的搭建流程,如果说大家的电脑小于8G的话,那就每台节点就大概开个1.5G左右,也是为了大家有一个好的体验. 修

Hadoop:Hadoop单机伪分布式的安装和配置

http://blog.csdn.net/pipisorry/article/details/51623195 因为lz的linux系统已经安装好了很多开发环境,可能下面的步骤有遗漏. 之前是在docker中配置的hadoop单机伪分布式[Hadoop:Hadoop单机伪分布式的安装和配置 ],并且在docker只有root用户,所有没有权限问题存在. 这里直接在linux下配置,主要是为了能用netbeans ide调试hadoop程序,并且使用的用户就是开机时登录的用户pika. 本教程配置

【Hadoop】在Ubuntu系统下安装Hadoop单机/伪分布式安装

Ubuntu 14.10 前方有坑: 由于之前的分布式系统电脑带不动,所以想换一个伪分布式试一试.用的是Virtualbox + Ubuntu 14.10 .结果遇到了 apt-get 源无法更新的情况,以及安装包安装不全的情况.只好咬一咬牙,又重新把系统给更新一边. apt-get 源无法更新解决方案:传送门 首先先备份源列表: sudo cp /etc/apt/sources.list /etc/apt/sources.list_backup 用编辑器打开: sudo gedit /etc/

redis cluster单机伪分布式搭建--- 3主3从3哨兵集群

redis cluster单机伪分布式搭建--- 3主3从3哨兵集群 最近公司引进微服务框架,之前的一台redis的预存60G已经无法满足现在的260G业务需要,经过一番考虑搭建了这套集群 . 为了方便我就用一台服务器演示,生产环境中不建议这么做(没啥用),只为记录一下过程,至于精细化的配置需要在生产中自行研究 演示环境 [[email protected] ~]# cat /etc/redhat-release CentOS Linux release 7.4.1708 (Core) redi

flink伪分布式搭建及其本地idea测flink连接

下载安装flink:上传压缩包:flink-1.7.2-bin-scala_2.12.tgz解压:tar -zxvf /flink-1.7.2-bin-scala_2.12.tgz -C ../hone复制解压文件到子节点:scp -r /home/flink-1.7.2/ [email protected]:/home/scp -r /home/flink-1.7.2/ [email protected]:/home/修改配置文件:选择一个master节点,配置conf/flink-conf.

Hadoop简单入门之伪分布式搭建

前面两章主要讲解了完全分布式的搭建,这章主要讲解服务器单机完成伪分布的搭建,介绍Hadoop配置,启动,以及简单测试.我的机器:阿里云服务器,64位,Java64,Hadoop2.4.1(64) ? 所有软件下载百度云 密码:uup8 讲在开头:对于笔者的完全分布式环境请见该文:Hadoop完全分布式安装 写文章不易,欢迎大家采我的文章,以及给出有用的评论,当然大家也可以关注一下我的github:多谢: 1,Hadoop简单介绍: Apache Hadoop是一款支持数据密集型分布式应用,并以A