ubuntu hadoop 2.7.0 伪分部安装

本篇是基于上一篇,ubuntu 安装hadoop单机版基础上的

1、配置core-site.xml

/usr/local/hadoop/etc/hadoop/core-site.xml 包含了hadoop启动时的配置信息。

编辑器中打开此文件

sudo gedit /usr/local/hadoop/etc/hadoop/core-site.xml

在该文件的<configuration></configuration>之间增加如下内容:

 <property>

        <name>fs.default.name</name>

        <value>hdfs://localhost:9000</value>

    </property>

保存、关闭编辑窗口。

2、yarn-site.xml

/usr/local/hadoop/etc/hadoop/yarn-site.xml包含了MapReduce启动时的配置信息。

编辑器中打开此文件

   sudo gedit /usr/local/hadoop/etc/hadoop/yarn-site.xml

在该文件的<configuration></configuration>之间增加如下内容:

<property>

        <name>yarn.nodemanager.aux-services</name>

        <value>mapreduce_shuffle</value>

    </property>

    <property>

        <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

        <value>org.apache.hadoop.mapred.ShuffleHandler</value>

    </property>

保存、关闭编辑窗口

3、创建mapred-site.xml

默认情况下,/usr/local/hadoop/etc/hadoop/文件夹下有mapred.xml.template文件,我们要复制该文件,并命名为mapred.xml,该文件用于指定MapReduce使用的框架。

首先进入/usr/local/hadoop/etc/hadoop/ 目录

cd /usr/local/hadoop/etc/hadoop/

复制并重命名

 cp mapred-site.xml.template mapred-site.xml

编辑器打开此新建文件

sudo gedit mapred-site.xml

在该文件的<configuration></configuration>之间增加如下内容:

<property>

        <name>mapreduce.framework.name</name>

        <value>yarn</value>

    </property>

保存、关闭编辑窗口

4、配置hdfs-site.xml
  /usr/local/hadoop/etc/hadoop/hdfs-site.xml用来配置集群中每台主机都可用,指定主机上作为namenode和datanode的目录。

首先创建文件夹

cd /usr/local/hadoop/
mkdir hdfs
mkdir hdfs/data
mkdir hdfs/name

你也可以在别的路径下创建上图的文件夹,名称也可以与上图不同,但是需要和hdfs-site.xml中的配置一致。

编辑器打开hdfs-site.xml

sudo gedit /usr/local/hadoop/etc/hadoop/hdfs-site.xml

在该文件的<configuration></configuration>之间增加如下内容:

 <property>

        <name>dfs.replication</name>

        <value>1</value>

    </property>

    <property>

        <name>dfs.namenode.name.dir</name>

        <value>file:/usr/local/hadoop/hdfs/name</value>

    </property>

    <property>

        <name>dfs.datanode.data.dir</name>

        <value>file:/usr/local/hadoop/hdfs/data</value>

    </property>

保存、关闭编辑窗口

5、格式化hdfs

 hdfs namenode -format  

只需要执行一次即可,如果在hadoop已经使用后再次执行,会清除掉hdfs上的所有数据

6、启动hadoop

首先进入 /usr/local/hadoop/目录

cd /usr/local/hadoop/

经过上文所描述配置和操作后,下面就可以启动这个单节点的集群

执行启动命令:

   sbin/start-dfs.sh    

执行该命令时,如果有yes /no提示,输入yes,回车即可。

接下来,执行:

sbin/start-yarn.sh    

执行完这两个命令后,Hadoop会启动并运行

浏览器打开 http://localhost:50070/,会看到hdfs管理页面

浏览器打开http://localhost:8088,会看到hadoop进程管理页面

7、wordcount测试

首先进入 /usr/local/hadoop/目录

cd /usr/local/hadoop/

dfs上创建input目录

bin/hadoop fs -mkdir -p input

把hadoop目录下的README.txt拷贝到dfs新建的input里

hadoop fs -copyFromLocal README.txt input

运行WordCount

    hadoop jar share/hadoop/mapreduce/sources/hadoop-mapreduce-examples-2.7.0-sources.jar org.apache.hadoop.examples.WordCount input output

执行完成后查看结果

hadoop fs -cat output/*
时间: 2024-08-25 18:35:45

ubuntu hadoop 2.7.0 伪分部安装的相关文章

Hadoop-2.6.0伪分布--安装配置hbase

Hadoop-2.6.0伪分布--安装配置hbase 1.用到的hadoop与hbase: 2.安装hadoop: 具体安装看这篇博文: http://blog.csdn.net/baolibin528/article/details/42939477 hbase所有版本下载 http://archive.apache.org/dist/hbase/ 3.解压hbase: 结果: 4.修改hbase 文件权限为一般用户权限: 5.设置环境变量: 配置内容: 保存配置: 6.进入配置文件目录: 7

【hadoop之翊】——基于CentOS的hadoop2.4.0伪分布安装配置

今天总算是把hadoop2.4的整个开发环境弄好了,包括 windows7上eclipse连接hadoop,eclipse的配置和測试弄得烦躁的一逗比了~ 先上一张成功的图片,hadoop的伪分布式安装配置,仅仅要依照步骤来,有点基础的 基本没什么问题的..eclipse的配置 弄了非常长一段时间才弄好的,中间出现各种意外的错误..下篇博客将重点讲述这个艰难的过程... 今天来说说hadoop2.4的安装和配置吧~ 1.环境的准备: 系统:CentOS JDK版本号:jdk7 系统须要包括ssh

Hadoop日记Day3---Hadoop的伪分布式安装

导录 比较仔细的读者可能发现,注意本章的图片又不太对劲的地方,那就是linux中的主机名有的是hadoop,有的是localhost,是由于使用的不同的电脑编辑的本文章,有的电脑上并没有修改主机名,一直使用默认的localhost主机名,不影响大家的学习,只是主机名不一样,其他的都一样,大家注意一下就可以了,自己是什么主机名,就把他看成自己的主机名就可以了,文章中的localhost和hadoop只是不同的主机名,他们的目录结构都是一样的.还有就是一下的软件下载地址:http://pan.bai

Hadoop2.6.0伪分布式安装配置

首先安装JDK,从Oracle官网下载 在 /usr/目录下mkdir java创建一个java目录 将jdk-7u72-linux-x64.rpm 放入java目录下 执行 rpm –ivh jdk-7u72-linux-x64.rpm 再从Apache官网下载 在 /usr/目录下 mkdir hadoop 创建一个hadoop目录 将hadoop-2.6.0.tar.gz 放入hadoop目录下 执行 tar –zxvf hadoop-2.6.0.tar.gz 接下来配置环境变量 vim

hadoop:hadoop2.2.0伪分布式搭建

1.准备Linux环境     1.0点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改subnet ip 设置网段:192.168.68.0 子网掩码:255.255.255.0 -> apply -> ok          回到windows --> 打开网络和共享中心 -> 更改适配器设置 -> 右键VMnet1 -> 属性 -> 双击IPv4 ->

Hadoop系列(二)hadoop2.2.0伪分布式安装

一.环境配置 安装虚拟机vmware,并在该虚拟机机中安装CentOS 6.4: 修改hostname(修改配置文件/etc/sysconfig/network中的HOSTNAME=hadoop),修改IP到主机名的映射(vi /etc/hosts ,添加 127.0.0.1   hadoop); 按照JDK,下载jdk1.7.0_60并解压到/soft目录中,然后在/etc/profile中添加  export JAVA_HOME=/soft/jdk1.7.0_60 和 export PATH

hbase-0.98.1-cdh5.1.0伪分布式安装

分三步: 1. 添加环境变量 2.编辑hbase-env.sh文件 3.编辑hbase-site.xml 文件 前提条件是安装好hadoop,下面展开说明 1. 添加环境变量 export HBASE_HOME=/usr/local/cdh/hbase export PATH=$PATH:$PIG_HOME/bin:$HADOOP_HOME/bin:$HBASE_HOME/bin:$ 2.编辑hbase-env.sh文件,添加: export JAVA_HOME=/usr/local/java/

Ubuntu16.04 Hadoop2.6.0伪分布式安装与启动中遇到的问题

1.安装JDK1.8,下载安装包解压至 /usr/lib/jdk vim /etc/profile #配置路径 export JAVA_HOME= /usr/lib/jdk export JRE_HOME=${JAVA_HOME}/jre export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib export PATH=${JAVA_HOME}/bin:$PATH 2.之前已经安装好SSH,现在设置免密码登录 ssh-keygen -t rsa ca

hadoop2.6.0伪分布式安装

准备linux环境[java.ip.hostname.hosts.iptables.chkconfig.ssh] 下载稳定版2.6.0 修改etc/hadoop目录下的配置文件core-site.xml.hdfs-site.xml.yarn-site.xml.mapred-site.xml 启动 验证 下面主要配置文件: core-site.xml: <property> <name>fs.defaultFS</name> <value>hdfs://192