linux下用hadoop streaming 跑php总是jobs fail!

用php写了简单map reduce程序,使用cat test.txt | php mapper.php | php reducer.php 测试过脚本没有问题,然而使用hadoop时就总是jobs fail。

因此得出结论是在上传脚本到hadoop服务器上执行时的命令输入错误。以下总结两个易错点:

1. –map ‘php mapper.php’不应该加php,加了之后容易fail

2. –file ‘mapper.php’ 应该使用-file参数将map和reduce的文件上传到hadoop服务器上,如果不上传容易fail。

用php写了简单map reduce程序,使用cat test.txt | php mapper.php | php reducer.php 测试过脚本没有问题,然而使用hadoop时就总是jobs fail。

因此得出结论是在上传脚本到hadoop服务器上执行时的命令输入错误。以下总结两个易错点:

1. –map ‘php mapper.php’不应该加php,加了之后容易fail

2. –file ‘mapper.php’ 应该使用-file参数将map和reduce的文件上传到hadoop服务器上,如果不上传容易fail。

 1 $hadoop jar  /绝对路径/hadoop-streaming.jar  2                                 -D mapred.job.priority="NORMAL"  3                                 -D mapred.job.name="test"  4                                 -D mapred.reduce.tasks=1  5                                 -D mapred.linerecordreader.maxlength=10485760  6                                 -mapper "/绝对路径/mapper.php"  7                                 -reducer "/绝对路径/reducer.php"  8                                 -input $input  9                                 -output $output 10                                 -file "/绝对路径/mapper.php" 11                                 -file "/绝对路径/reducer.php"
时间: 2024-08-05 21:53:00

linux下用hadoop streaming 跑php总是jobs fail!的相关文章

Linux下执行Hadoop WordCount.jar

Linux执行 Hadoop WordCount ubuntu 终端进入快捷键 :ctrl + Alt +t hadoop启动命令:start-all.sh 正常执行效果如下: [email protected]:~$ start-all.sh Warning: $HADOOP_HOME is deprecated. starting namenode, logging to /home/hadoop/hadoop-1.1.2/libexec/../logs/hadoop-hadoop-name

Linux下安装Hadoop(2.7.1)详解及WordCount运行

一.引言 在完成了Storm的环境配置之后,想着鼓捣一下Hadoop的安装,网上面的教程好多,但是没有一个特别切合的,所以在安装的过程中还是遇到了很多的麻烦,并且最后不断的查阅资料,终于解决了问题,感觉还是很好的,下面废话不多说,开始进入正题. 本机器的配置环境如下: Hadoop(2.7.1) Ubuntu Linux(64位系统) 下面分为几个步骤来详解配置过程. 二.安装ssh服务 进入shell命令,输入如下命令,查看是否已经安装好ssh服务,若没有,则使用如下命令进行安装: sudo

Linux下搭建hadoop集群环境

小编写在前面的话 “天下武功,唯快不破”,但是如果不清楚原理,快也是徒劳.在这物欲横行,数据爆炸的年代,BigData时代到了,如果熟悉了整个hadoop的搭建过程,我们是否也能从中攫取一桶金?! 前期准备 l  两台linux虚拟机(本文使用redhat5,IP分别为 192.168.1.210.192.168.1.211) l  JDK环境(本文使用jdk1.6,网上很多配置方法,本文省略) l  Hadoop安装包(本文使用Hadoop1.0.4) 搭建目标 210作为主机和节点机,211

Linux下的Hadoop安装(本地模式)

系统为CentOS 6.9,Hadoop版本2.8.3,虚拟机VMware Workstation 主要介绍Linux虚拟机安装.环境配置和Hadoop本地模式的安装.伪分布式和Windows下的安装将另作补充. 网络上关于Hadoop安装的教程非常多,这里主要是归纳出安装过程的简要步骤和可能碰到的问题. Linux环境安装 NAT Linux 设置网络 HOST 其他环境设置 Java环境配置 Hadoop本地模式安装 Linux环境安装 NAT Linux 设置网络 HOST 其他环境设置

linux 下如何查看mysql跑了哪些服务

ps -ef|grep  mysql   //现查处PID 然后 lsof -p +pid  就可以看到mysql跑的服务 百度出了别人的方法 当遇到mysql很卡,然后又想知道找到原因时,我常用以下方法找问题 show processlist\G;  或者show full processlist\G;    //放这个命令进去提示没有这个命令 *************************** 5. row *************************** Id: 197343 U

Linux下配置Hadoop环境

1.准备Linux环境 1.0点击VMware快捷方式,右键打开文件所在位置 -> 双击vmnetcfg.exe -> VMnet1 host-only ->修改subnet ip 设置网段:192.168.1.0 子网掩码:255.255.255.0 -> apply -> ok 回到windows --> 打开网络和共享中心 -> 更改适配器设置 -> 右键VMnet1 -> 属性 -> 双击IPv4 -> 设置windows的IP:1

Linux下配置Hadoop

首先要下载hadoop的包,版本选择1.2.1的,下载地址为:http://mirrors.cnnic.cn/apache/hadoop/common/hadoop-1.2.1/ 这里可以下载hadoop-1.2.1-tar.gz包括源码或者hadoop-1.2.1-bin.tar.gz执行包不包括源码,两个文件大小差不多正好是一倍关系 下载之后通过tar -xzvf hadoop-1.2.1.tar.gz进行解压,解压后放到我们指定的目录中,然后进入conf目录开始配置文件 主要就是配置had

【大数据系列】在windows下连接linux 下的hadoop环境进行开发

一.下载Eclipse并安装 二.下载exlipse的hadoop plugin 三.打开Map Reduce视图 Window --> Perspective --> Open perspective 四.编辑Hadoop Location 五.查看是否连接成功 六.上传文件或文件夹测试是否成功 1.没有权限Permission denied 关键代码行:执行login.login的时候调用了hadoop里面的HadoopLoginModule方法,而关键是在commit方法里面,它会优先去

Linux下安装Hadoop

第一步: Hadoop需要JAVA的支持,所以需要先安装JAVA 查看是否已安装JAVA 查看命令: java -version JRE(Java Runtime Environment),它是你运行一个基于Java语言应用程序的所正常需要的环境. 安装命令: apt-get install default-jre 查看是否安装成功 java -version 如果显示如下类似的文字,表示安装成功 java version "1.7.0_131" 第二步: 下载Hadoop,地址:ht