【hadoop 2.6】hadoop2.6伪分布模式环境的搭建测试使用

首先下载安装,这个就不说了,去apache官网下载安装,貌似186M,很大

解压后,我们看下目录结构如下:

[[email protected] hadoop-2.6.0]# ll
total 64
drwxr-xr-x 2 20000 20000  4096 Nov 14 05:20 bin
drwxr-xr-x 3 20000 20000  4096 Nov 14 05:20 etc
drwxr-xr-x 2 20000 20000  4096 Nov 14 05:20 include
drwxr-xr-x 2 root  root   4096 Jan 14 14:52 input
drwxr-xr-x 3 20000 20000  4096 Nov 14 05:20 lib
drwxr-xr-x 2 20000 20000  4096 Nov 14 05:20 libexec
-rw-r--r-- 1 20000 20000 15429 Nov 14 05:20 LICENSE.txt
drwxr-xr-x 2 root  root   4096 Jan 14 15:23 logs
-rw-r--r-- 1 20000 20000   101 Nov 14 05:20 NOTICE.txt
drwxr-xr-x 2 root  root   4096 Jan 14 14:53 output
-rw-r--r-- 1 20000 20000  1366 Nov 14 05:20 README.txt
drwxr-xr-x 2 20000 20000  4096 Nov 14 05:20 sbin
drwxr-xr-x 4 20000 20000  4096 Nov 14 05:20 share

这里补充一个yarn框架与之前mapreduce框架的一个比较: http://www.ibm.com/developerworks/cn/opensource/os-cn-hadoop-yarn/

解压好了之后,首先来一个standalone跑一个例子:

The following example copies the unpacked conf directory to use as input and then finds and displays every match of the given regular expression. Output is written
to the given output directory.

  $ mkdir input
  $ cp etc/hadoop/*.xml input
  $ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar grep input output ‘dfs[a-z.]+‘
  $ cat output/*

下面来看看伪分布模式

涉及到两个配置文件

hadoop-2.6.0/etc/hadoop

core-ste.xml

<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

hdfs-site.xml

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

配置好两个配置文件了,这里别忘了配置JAVA_HOME啊

在hadoop-env.sh和yarn-env.sh(如果用到的话,不过要配一起配了)

下面建立ssh localhost免密码登录

ssh-keygen -t dsa -P '' -f ~/.ssh/id_dsa
cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

都搞定了,开始执行了:

1、文件系统格式化

bin/hdfs namenode -format

2、启动namenode和datanode

sbin/start-dfs.sh

这一步结束,我们就可以打开hadoop的监控页面看看各个模块的情况了:http://localhost:50070

感觉2.6很酷炫啊!!

下面建立文件系统

bin/hdfs dfs -mkdir /user
bin/hdfs dfs -mkdir /user/chiwei
执行完了,我们去到页面上观察下

已经出现了我们刚刚创建的文件系统了

sh bin/hdfs dfs -put input /user/chiwei

将input文件夹下的内容放到刚刚创建的文件系统里

sh bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0.jar grep /user/chiwei/input output ‘dfs[a-z.]+‘

通过以上命令使用example去分析一下刚刚的文件内容

已经产生输出了

最后就是关闭文件系统,datanode,namenode,secondary namenode

[[email protected] hadoop-2.6.0]# sh sbin/stop-dfs.sh
15/01/14 15:56:44 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Stopping namenodes on [localhost]
localhost: stopping namenode
localhost: stopping datanode
Stopping secondary namenodes [0.0.0.0]
0.0.0.0: stopping secondarynamenode
15/01/14 15:57:07 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
[[email protected] hadoop-2.6.0]# 
时间: 2024-08-09 02:18:31

【hadoop 2.6】hadoop2.6伪分布模式环境的搭建测试使用的相关文章

Hadoop2.0 伪分布环境的搭建

准备Linux环境[JAVA,IP,hostname,hosts,iptables,chkconfig,ssh] 不会配置的找1.0下面的伪分布环境搭建 下载稳定版2.2.0 修改etc/hadoop目录下的配置文件core-site.xml,hdfs-site.xml,yarn-site.xml,mapred-site.xml 文件core-site.xml <configuration> <property> <name>fs.defaultFS</name&

Hadoop伪分布模式环境搭建

最近开始研究学习hadoop,想把自己的一些知识点写在这里作为自己的学习记录.同时,如果能够为有需要的朋友带来帮助也是一件快乐的事.这篇文章基本上都是参考网上的资料,我按照自己的理解和实践经验将其组织起来.网上大多教程没有具体介绍操作的背后原因,我按照我的理解以及将一些分布于网上比较散乱的细碎知识点进行了组织.因为时间以及个人能力原因,本安装文档会存在很多不足,后期我也会努力去学习提高自己.我的博客园之旅就以此hadoop安装开始.因为时间原因,我第一次发博客,图片没有加上,不过文章基本描述清楚

centos7搭建hadoop2.10伪分布模式

1.准备一台Vmware虚拟机,添加hdfs用户及用户组,配置网络见 https://www.cnblogs.com/qixing/p/11396835.html 在root用户下 添加hdfs用户,并设置密码: adduser hdfs passwd hdfs 将hdfs用户添加到hdfs用户组中 usermod -a -G hdfs hdfs 前面一个hdfs是组名,后面一个hdfs是用户名 验证用户和用户组: cat /etc/group 会看到   hdfs:x:1001:hdfs 将h

Hadoop2.x伪分布式环境搭建(一)

1.安装hadoop环境,以hadoop-2.5.0版本为例,搭建伪分布式环境,所需要工具包提供网盘下载:http://pan.baidu.com/s/1o8HR0Qu 2.上传所需要的工具包到linux相对就应的目录中 3.接上篇(Linux基础环境的各项配置(三)中最后一部分,需卸载系统自带的jdk,以免后续安装的jdk产生冲突),卸载jdk完成后,安装jdk-7u67-linux-x64.tar.gz版本,上述工具包可下载 (1).解压JDK tar -zxf jdk-7u67-linux

CentOS 7下Hadoop2.6伪分布模式安装

1.Hadoop核心配置文件: # gedit core-site.xml <configuration> <property> <name>fs.default.name</name> <value>hdfs://localhost:9000</value> </property> </configuration> # gedit hdfs-site.xml <configuration> <

Hadoop2.6伪分布式环境的一些注意事项

Hadoop版本:2.6.0 虚拟机VMware11 操作系统ubuntu14.04-x64 相关的教程可见http://blog.csdn.net/ggz631047367/article/details/42426391 此处仅分享在配置过程中遇到的问题. 问题1. 针对使用sudo su的问题 在以前操作ubuntu的时候我习惯使用sudo su进行需要root权限的操作,但是在配置环境的时候遇到了两个问题.问题都在利用sudo su之后,重启命令行或者虚拟机以后出现,主要原因是用户账户更

Hadoop伪分布式环境快速搭建

Hadoop分支 Apache Cloudera Hortonworks 本文是采用Cloudera分支的hadoop. 下载cdh-5.3.6 版本 下载地址:http://archive.cloudera.com/cdh5/cdh/5/ 各组件版本一定保持一致. cdh5.3.6-snappy-lib-natirve.tar.gz hadoop-2.5.0-cdh5.3.6.tar.gz hive-0.13.1-cdh5.3.6.tar.gz sqoop-1.4.5-cdh5.3.6.tar

Hadoop初体验:快速搭建Hadoop伪分布式环境

0.前言 本文旨在使用一个全新安装好的Linux系统从0开始进行Hadoop伪分布式环境的搭建,以达到快速搭建的目的,从而体验Hadoop的魅力所在,为后面的继续学习提供基础环境. 对使用的系统环境作如下说明: 操作系统:CentOS 6.5 64位 主机IP地址:10.0.0.131/24 主机名:leaf 用户名:root hadoop版本:2.6.5 jdk版本:1.7 可以看到,这里直接使用root用户,而不是按照大多数的教程创建一个hadoop用户来进行操作,就是为了达到快速搭建Had

构建Hadoop伪分布式环境

构建Hadoop伪分布式环境 这篇文章介绍Hadoop伪分布式环境的搭建过程与原理,是个人的学习总结,以纪念在各个步骤中遇到的麻烦.踩过的坑! 这篇笔记包含这样几个内容: 配置伪分布式环境 运行一个简单的作业 可能遇到的问题及解决办法 配置伪分布式环境 本文中的内容基于Hadoop2,即MapReduce作业运行在Yarn平台之上. 打通SSH,实现无密码登陆 由于Hadoop控制脚本需要登陆到集群中的Slave节点执行操作(比如,启动守护进程),如果每一次登录都输入密码,显然不是个好办法.集群