RedHat 安装Hadoop并运行wordcount例子

1.安装 Red Hat 环境

2.安装JDK

3.下载hadoop2.8.0

  http://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common/hadoop-2.8.0/hadoop-2.8.0.tar.gz

4.在用户目录下新建hadoop文件夹,并解压hadoop压缩包

  mkdir Hadoop

  tar -zxvf hadoop-2.8.0.tar.gz

5.为hadoop配置JAVA_HOME

[[email protected] ~]$ cd hadoop/hadoop-2.8.0/etc/hadoop/
[[email protected] hadoop]$ vi hadoop-env.sh

6.格式化(初始化)HDFS文件系统

[[email protected] ~]$ cd hadoop/hadoop-2.8.0/bin
[[email protected] bin]$ ./hadoop namenode -format

  (ps:hadoop namenode -format 已经过时 hdfs namenode -format 最新的需要等待较长时间)

7.启动haddop

[[email protected] ~]$ cd hadoop/hadoop-2.8.0/sbin/
[[email protected] sbin]$ ./start-all.sh

  (ps:现在推荐使用 ./start-hdfs.sh ./start-yarn.sh)

8.jps查看hadoop是否成功启动

9.在hadoop目录里下新建文件夹并新建两个测试文件

[[email protected] ~]$ cd hadoop/
[[email protected] hadoop]$ mkdir test
[[email protected] hadoop]$ cd test/
[[email protected] test]$ echo "hello word" > file1.txt
[[email protected] test]$ echo "hello hadoop" > file2.txt

10.在hdfs文件系统里新建input文件夹并将测试文件上传

[[email protected] ~]$ cd hadoop/hadoop-2.8.0/bin/
[[email protected] bin]$ ./hadoop fs -mkdir input
[[email protected] bin]$ ./hadoop fs -put ~/hadoop/test/file*.txt input
17/07/06 16:33:34 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
[[email protected] bin]$ ./hadoop fs -ls input
17/07/06 16:33:45 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Found 2 items
-rw-r--r--   1 chenguangjin chenguangjin         11 2017-07-06 16:33 input/file1.txt
-rw-r--r--   1 chenguangjin chenguangjin         13 2017-07-06 16:33 input/file2.txt

  (ps:注意此处由WARN,不需要管它,可以成功上传)

11.运行wordcount小例子

[[email protected] bin]$ ./hadoop jar ~/hadoop/hadoop-2.8.0/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.0.jar  wordcount input output

12.查看结果

[[email protected] bin]$ ./hadoop fs -text output/part-r-00000
17/07/06 16:46:02 WARN util.NativeCodeLoader: Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
hadoop    1
hello    2
word    1
[[email protected] bin]$ 

(over怎么样是不是还挺有趣的)

时间: 2024-10-05 23:41:04

RedHat 安装Hadoop并运行wordcount例子的相关文章

[Linux][Hadoop] 运行WordCount例子

紧接上篇,完成Hadoop的安装并跑起来之后,是该运行相关例子的时候了,而最简单最直接的例子就是HelloWorld式的WordCount例子.   参照博客进行运行:http://xiejianglei163.blog.163.com/blog/static/1247276201443152533684/   首先创建一个文件夹,并创建两个文件,目录随意,为以下文件结构: examples --file1.txt --file2.txt 文件内容随意填写,我是从新闻copy下来的一段英文: 执

(四)伪分布式下jdk1.6+Hadoop1.2.1+HBase0.94+Eclipse下运行wordCount例子

本篇先介绍HBase在伪分布式环境下的安装方式,然后将MapReduce编程和HBase结合起来使用,完成WordCount这个例子. HBase在伪分布环境下安装 一.   前提条件 已经成功地安装了jdk1.6和hadoop1.2.1. Jdk1.6+Hadoop1.2.1在伪分布环境下具体的安装方法见:Hadoop1.2.1安装——单节点方式和单机伪分布方式 二.   环境 VMware® Workstation 10.04 Ubuntu14.04 32位 Java JDK 1.6.0 h

Hadoop3 在eclipse中访问hadoop并运行WordCount实例

前言:       毕业两年了,之前的工作一直没有接触过大数据的东西,对hadoop等比较陌生,所以最近开始学习了.对于我这样第一次学的人,过程还是充满了很多疑惑和不解的,不过我采取的策略是还是先让环境跑起来,然后在能用的基础上在多想想为什么.       通过这三个礼拜(基本上就是周六周日,其他时间都在加班啊T T)的探索,我目前主要完成的是: 1.在Linux环境中伪分布式部署hadoop(SSH免登陆),运行WordCount实例成功. http://www.cnblogs.com/Pur

配置RHadoop与运行WordCount例子

1.安装R语言环境 su -c 'rpm -Uvh http://download.fedoraproject.org/pub/epel/6/i386/epel-release-6-8.noarch.rpm' su -c 'yum install foo' yum list R-\* yum install R 2.安装RStudio Desktop和Server Desktop是rpm包,双击执行 Server安装命令: yum install openssl098e # Required o

eclipse集成使用Hadoop插件运行WordCount程序

云地址:https://pan.baidu.com/s/1CmBAJMdcwCxLGuCwSTcJNw 密码:qocw 前提条件:启动集群 ,配置好JDK和hadoop环境变量 有必要删除 虚拟机中的output文件 使用 [[email protected] sbin]# hadoop fs -rm -r /output Deleted /output [[email protected] sbin]# ll 给hadoop文件权限 [[email protected] sbin]# hado

CDH quick start VM 中运行wordcount例子

需要注意的事情: 1. 对于wordcount1.0 ,按照http://www.cloudera.com/content/cloudera/en/documentation/HadoopTutorial/CDH4/Hadoop-Tutorial/ht_usage.html#topic_5_2 执行. 2.hadoop fs -mkdir /user/cloudera 这条语句意思是在hadoop文件系统下创建新文件夹.在终端中执行"cd /user/cloudera"是错误的,会出现

hadoop yarn 运行wordcount时执行完成,但是返回错误

错误信息如下: 15/09/05 03:48:02 INFO mapreduce.Job: Job job_1441395011668_0001 failed with state FAILED due to: Application application_1441395011668_0001 failed 2 times due to AM Container for appattempt_1441395011668_0001_000002 exited with exitCode: 1 F

CentOS上安装Hadoop2.7,添加数据节点,运行wordcount

安装hadoop的步骤比较繁琐,但是并不难. 在CentOS上安装Hadoop2.7 1. 安装 CentOS,注:图形界面并无必要 2. 在CentOS里设置静态IP,手工编辑如下4个文件 /etc/hosts /etc/sysconfig/netwok /etc/hostname /etc/sysconfig/network-scripts/ifcfg-eno1677773 3. 关闭防火墙 Close firewalld systemctl stop firewalld.service #

hadoop-2.6.0伪分布运行WordCount

hadoop-2.6.0伪分布运行WordCount 1.启动Hadoop:  2.创建file 文件夹:  这个是建在本地硬盘上的: 查看创建的 file 文件: 进入该目录,创建两个 txt 文件: 结果如下: 3.在HDFS上创建输入文件夹目录 input : 把本地硬盘上创建的文件传进input 里面: 查看结果: 4.Hadoop自带的运行 wordcount 例子的 jar 包: 5.开始运行 wordcount: 过程: 查看运行结果: 附完整运行过程: 附代码: import j