httpfs安装指南

安装环境

Linux

maven3

jdk1.6

本地的maven源(有些依赖的jar包Cloudera已不再维护)

  • 1.下载httfs源码包

https://github.com/cloudera/httpfs

使用git下载

git clone https://github.com/cloudera/httpfs.git

  • 2.修改pom.xml文件

在<dependencies>中增加依赖

<dependency>

<groupId>org.apache.hadoop</groupId>

<artifactId>hadoop-core</artifactId>

<version>${cdh.hadoop.version}</version>

</dependency>

  • 3.下载所需要的依赖,

mvn clean:install

其中有些依赖的jar包已不在Cloudera的源上了,需要自己设置maven源,在~/.m2/setting.xml中增加自己的源

  • 4.编译打包

mvn package -Pdist

生成的hadoop-hdfs-httpfs-0.20.2-cdh3u6.tar.gz包在target目录下

  • 5.修改hadoop集群的所有机器的core-site.xml文件

在其中加入以下内容

<property>

<name>hadoop.proxyuser.httpfs.hosts</name>

<value>httpfs-host.foo.com</value>

</property>

<property>

<name>hadoop.proxyuser.httpfs.groups</name>

<value>*</value>

</property>

重启hadoop集群

  • 6.在要安装httpfs的机器上创建httpfs用户

useradd --create-home --shell /bin/bash httpfs

passwd httpfs

  • 7.安装httpfs

将hadoop-hdfs-httpfs-0.20.2-cdh3u6.tar.gz包复制到/home/httpfs目录下解压

进入到解压出来的目录hadoop-hdfs-httpfs-0.20.2-cdh3u6

将现网集群的hadoop配置文件core-site.xml和hdfs-site.xml复制到/home/httpfs/hadoop-hdfs-httpfs-0.20.2-cdh3u6/etc/hadoop目录下

  • 8.修改httpfs-site.xml

在其中加入

<property>

<name>httpfs.proxyuser.httpfs.hosts</name>

<value>*</value>

</property>

<property>

<name>httpfs.proxyuser.httpfs.groups</name>

<value>*</value>

</property>

  • 9.启动httpfs

使用httpfs用户启动

/home/httpfs/hadoop-hdfs-httpfs-0.20.2-cdh3u6/sbin/httpfs.sh start

  • 10.检查

检查进程是否存在:jps看看有没有Bootstrap进程

查看logs目录下httpfs.log和其他log有无异常信息

  • 11.curl测试

上传文件

curl -i -X PUT "http://172.16.61.154:14000/webhdfs/v1/tmp/testfile?user.name=bdws&op=create"

根据返回回来的URL再次put

curl -i -X PUT -T test.txt --header "Content-Type: application/octet-stream" "http://172.16.61.154:14000/webhdfs/v1/tmp/testfile?op=CREATE&user.name=bdws&data=true"

下载文件

curl -i "http://172.16.61.154:14000/webhdfs/v1/tmp/testfile?user.name=bdws&op=open"

HTTP/1.1 200 OK

Server: Apache-Coyote/1.1

Set-Cookie: hadoop.auth="u=bdws&p=bdws&t=simple&e=1400181237161&s=F5K1C44TbM/tMjbdFUpM+zExtso="; Version=1; Path=/

Content-Type: application/octet-stream

Content-Length: 20

Date: Thu, 15 May 2014 09:13:57 GMT

this is a test file

  • 12.参考:

Hadoop HDFS over HTTP 0.20.2-cdh3u6 - Server Setup

http://cloudera.github.io/httpfs/ServerSetup.html

WebHDFS说明,很详细包括命令的使用

http://zhangjie.me/webhdfs/

Apache hadoop webhdfs api文档

http://hadoop.apache.org/docs/r1.0.4/webhdfs.html

httpfs安装指南,布布扣,bubuko.com

时间: 2024-10-22 07:24:24

httpfs安装指南的相关文章

Spark1.0.0伪分布安装指南

?一.下载须知 软件准备: spark-1.0.0-bin-hadoop1.tgz   下载地址:spark1.0.0 scala-2.10.4.tgz    下载下载:Scala 2.10.4 hadoop-1.2.1-bin.tar.gz   下载地址:hadoop-1.2.1-bin.tar.gz jdk-7u60-linux-i586.tar.gz  下载地址:去官网下载就行,这个1.7.x都行 二.安装步骤 hadoop-1.2.1安装步骤,请看: http://my.oschina.

MyCAT安装指南

MyCAT安装指南 MyCAT 1.2版本 快速上手-安装指南(安装单机) Mycat的server和mysql位于同一台服务器,centos6.2.4环境 Mycat:10.191.116.175 Mysql:10.191.116.175 是用Java开发,需要有JAVA运行环境,mycat依赖jdk1.7的环境,若本机没有,则需要下载安装: http://www.java.com/zh_CN/ 获取MyCAT的最新开源版本,项目主页http://code.google.com/p/MyCAT

Ubuntu软件安装指南:dpkg、apt 与源码包安装

基础知识: 通常情况下,linux会这样放软件的组件(一般规范): 程序的文档->/usr/share/doc; /usr/local/share/doc 程序->/usr/share; /usr/local/share 程序的启动项->/usr/share/apps; /usr/local/share 程序的语言包->/usr/share/locale; /usr/local/share/locale 可执行文件->/usr/bin; /usr/local/bin 而有的软

Scrapy 1.4 文档 02 安装指南

安装 Scrapy Scrapy 运行在 Python 2.7 和 Python 3.3 或更高版本上. 如果您使用的是 Anaconda 或 Miniconda,则可以从 conda-forge 通道安装软件包,该通道具有适用于 Linux,Windows 和 OS X 的最新软件包. 使用 conda 安装 Scrapy,运行: conda install -c conda-forge scrapy 或者,如果您已经熟悉 Python 软件包的安装,可以从 PyPI 安装 Scrapy 及其

深度学习caffe:Ubuntu16.04安装指南(3)

caffe [完全版] 2017-01-19 配置如下: caffe + cuda8.0[GPU加速[只支持N卡]] + cudnn5.1 + opencv3.1 + python2.7 + boost58 , 主要参考了caffe官方教程 Ubuntu 16.04 or 15.10 Installation Guide 开始前,请先阅读: 深度学习caffe:Ubuntu16.04安装指南(2) 正式开始安装前,你需要一台已经安装好了Ubuntu16.04系统的电脑,然后/home分区最好有尽

P6 EPPM手动安装指南(Oracle数据库)(一)

P6 EPPM手动安装指南(Oracle数据库) P6 EPPM Manual Installation Guide (Oracle Database) 1.      内容... 1 1.1.         Oracle数据库手动配置的概述... 1 1.1.1.            Oracle数据库安装... 2 1.1.1.1.           创建数据库结构甲骨文和加载应用程序数据... 2 1.1.1.1.1.            创建P6 EPPM为Oracle数据库结构

网页版PPT快速安装指南

https://github.com/hakimel/reveal.js#installation 1.install Node.js brew install nodejs 2. install Grunt http://gruntjs.com/getting-started#installing-the-cli npm install -g grunt-cli npm install grunt --save-dev 3. Clone the reveal.js repository $ g

mac osx 系统 brew install hadoop 安装指南

mac osx 系统 brew  install hadoop 安装指南 brew install hadoop 配置 core-site.xml:配置hdfs文件地址(记得chmod 对应文件夹,否则无法正常启动hdfs)和namenode的rpc通行端口 配置mapred-site.xml  中的map reduce通信端口 配置hdfs-site.xml 中的datanode 副本数. 格式化hdfs文件系统 启动Hadoop 和 yarn  namenode  datanode  map

ArchLinux安装指南

将ArchLinux作为进阶Linux发行版,主要看重滚动更新和深入理解Linux的安装过程. 由于是新手,所以先选择在公司电脑上用VMware来安装.然后渐进到借助U盘在win10笔记本上安装双系统. 一,安装准备 从官网下载安装镜像,https://www.archlinux.org/download/ win10系统需要关闭安全模式和快速启动,才能选择通过U盘启动. 二,安装步骤 进入安装命令窗口 a, VMware启动比较简单,直接选择安装镜像,创建虚拟机,启动后即可进入 b,制作UEF