centOS 64位下编译hadoop2.4.1

1. 安装JDK

a.      解压jdk

[[email protected] software]$ tar -xvzf jdk-7u60-linux-x64.tar.gz

b.      设置环境变量

PATH=$PATH:$HOME/bin
export JAVA_HOME=/home/bigdata001/BigDataPlatform/jdk1.7.0_60
export JAVA_BIN=$JAVA_HOME/bin
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar
export JRE_HOME=$JAVA_HOME/jre
export PATH=$PATH:$JAVA_HOME/bin
export PATH

c.      使之生效

[[email protected] ~]$ source .bash_profile

d.      验证

[[email protected] ~]$ java -version
java version "1.7.0_60"
Java(TM) SE Runtime Environment (build 1.7.0_60-b19)
Java HotSpot(TM) 64-Bit Server VM (build 24.60-b09, mixed mode)

2.   安装Maven

a.      解压

[[email protected] software]$ tar -xvzf apache-maven-3.2.3-bin.tar.gz

b.      配置环境变量

修改系统环境变量有两种方式,修改/etc/profile,或者在/etc/profile.d/下添加定制的shell文件,鉴于profile文件的重要性,尽量不要在profile文件里添加内容,官方建议采用第二种,以保证profile文件的绝对安全。

下面采用第二种方式:

[[email protected] etc]# cd /etc/profile.d/
[[email protected] profile.d]# touch maven.sh

向maven.sh中添加如下内容

export MAVEN_HOME='/home/bigdata001/BigDataPlatform/apache-maven-3.2.3'
export PATH=$MAVEN_HOME/bin:$PATH

c.      使之生效

[[email protected] profile.d]# source /etc/profile

d.      验证安装

Apache Maven 3.2.3 (33f8c3e1027c3ddde99d3cdebad2656a31e8fdf4; 2014-08-12T04:58:10+08:00)
Maven home: /home/bigdata001/BigDataPlatform/apache-maven-3.2.3
Java version: 1.7.0_60, vendor: Oracle Corporation
Java home: /home/bigdata001/BigDataPlatform/jdk1.7.0_60/jre
Default locale: zh_CN, platform encoding: UTF-8
OS name: "linux", version: "2.6.32-431.el6.x86_64", arch: "amd64", family: "unix"

3.   安装Protobuf

a.      安装依赖软件

[[email protected] ~]# yum install gcc*

b.      解压缩(注意压缩文件后缀, maven安装包是—gzip文件,解压时需加–z)

[[email protected] software]$ tar -xvf protobuf-2.5.0.tar.bz2

c.      安装

[[email protected] BigDataPlatform]$ cd protobuf-2.5.0/
[[email protected] protobuf-2.5.0]$ ./configure
[[email protected] protobuf-2.5.0]$ make
[[email protected] protobuf-2.5.0]$ make check
[[email protected] protobuf-2.5.0]# make install

d.      验证安装

[[email protected] protobuf-2.5.0]# protoc --version
libprotoc 2.5.0

4.    编译Hadoop

a.      解压缩

[[email protected] software]$ tar -xvzf hadoop-2.4.1-src.tar.gz

b.      修改Maven配置文件

切换为root权限并修改文件

[[email protected] BigDataPlatform]# gedit apache-maven-3.2.3/conf/settings.xml

增加profile内容

<profile>
      <id>jdk-1.7</id>
      <activation>
        <jdk>1.7</jdk>
      </activation>
      <repositories>
        <repository>
          <id>nexus</id>
          <name>local private nexus</name>
          <url>http://maven.oschina.net/content/groups/public/</url>
          <releases>
            <enabled>true</enabled>
          </releases>
          <snapshots>
            <enabled>false</enabled>
          </snapshots>
        </repository>
      </repositories>
      <pluginRepositories>
        <pluginRepository>
          <id>nexus</id>
          <name>local private nexus</name>
          <url>http://maven.oschina.net/content/groups/public/</url>
          <releases>
            <enabled>true</enabled>
          </releases>
          <snapshots>
            <enabled>false</enabled>
          </snapshots>
        </pluginRepository>
      </pluginRepositories>
    </profile>

c.      安装依赖包

[[email protected] hadoop-2.4.1-src]# yum install ncurses-devel
[[email protected] hadoop-2.4.1-src]# yum install openssl-devel
[[email protected] hadoop-2.4.1-src]# yum install cmake

d.      由于编译依赖的组件已经安装完成,所以直接执行编译命令即可

[[email protected] hadoop-2.4.1-src]# mvn package -Pdist,native -DskipTests -Dtar

经过的漫长等待,hadoop编译结束,效果如图

e.      验证编译

编译后的文件存在于

/home/bigdata001/BigDataPlatform/hadoop-2.4.1-src/hadoop-dist/target

f.      验证版本号

[[email protected] hadoop-2.4.1]$ bin/hadoop version
Hadoop 2.4.1
Subversion Unknown -r Unknown
Compiled by root on 2014-08-18T10:51Z
Compiled with protoc 2.5.0
From source with checksum bb7ac0a3c73dc131f4844b873c74b630
This command was run using /home/bigdata001/BigDataPlatform/hadoop-2.4.1-src/hadoop-dist/target/hadoop-2.4.1/share/hadoop/common/hadoop-common-2.4.1.jar

g.      验证hadoop lib 的位数

[[email protected] hadoop-2.4.1]$ file lib//native/*
lib//native/libhadoop.a:        current ar archive
lib//native/libhadooppipes.a:   current ar archive
lib//native/libhadoop.so:       symbolic link to `libhadoop.so.1.0.0'
lib//native/libhadoop.so.1.0.0: ELF 64-bit LSB shared object, x86-64, version 1 (SYSV), dynamically linked, not stripped
lib//native/libhadooputils.a:   current ar archive
lib//native/libhdfs.a:          current ar archive
lib//native/libhdfs.so:         symbolic link to `libhdfs.so.0.0.0'
lib//native/libhdfs.so.0.0.0:   ELF 64-bit LSB shared object, x86-64, version 1 (SYSV), dynamically linked, not stripped

centOS 64位下编译hadoop2.4.1,布布扣,bubuko.com

时间: 2024-08-25 06:02:43

centOS 64位下编译hadoop2.4.1的相关文章

centos6.5 64位下编译hadoop2.5.1源码

需要的工具:centos6.5 -64bit 需要的软件:java, svn, autoconf, automake, libtool, ncurses-devel, openssl-devel, gcc, lzo-devel, zlib-devel, znt, maven, protobuf, cmake 检测系统中是否已安装了某一软件命令:rpm -qa|grep 软件名,如检测系统中是否安装了svn: $ rpm -qa|grep svn 如果已安装,则跳过,如果没有安装,用命令:yum

centos 64位 下hadoop-2.7.2 下编译

由于机器安装的是centos 6.7 64位 系统  从hadoop中下载是32位  hadoop 依赖的的库是libhadoop.so 是32 位  需要重新编译. 下面就是编译的步骤 1 安装jdk 1 .1下载jdk 1.2对jdk 进行解压 1.3 配置环境变量 1.3.1命令 1.3.2 修改环境变量 在文件末尾添加 如图显示 1.4 利用命令查看版本 2安装所需要的库 2.1命令 2.2第二个安装 3安装 protobuf-2.5.0.tar.gz(版本必须是2.5.0) 3.1如图

Win7旗舰版64位下编译32位的带CGO的GoLang程序

开发过程中,遇到一个问题. 客户服务器端为32位Windows系统,软件系统必须编译成32位系统才能在客户端正常运行. 本人开发环境: Win7旗舰版64位 Golang 1.8 64位 TMD-GCC5.1 64位 在此情况下,使用批处理文件如下: set GOOS=windows set GOARCH=386 set CGO_ENABLED=1 go build pcms pause 系统调用go-sqlite3,使用cgo调用,会报出编译错误,原因就是gcc调用的异常 使用交叉编译的方式总

CentOS 64位上编译 Hadoop 2.6.0

1.操作系统编译环境 yum install cmake lzo-devel zlib-devel gcc gcc-c++ autoconf automake libtool ncurses-devel openssl-devel libXtst 2.安装JDK 下载JDK1.7,注意只能用1.7,否则编译会出错 http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html tar zxvf

64位Linux编译hadoop-2.5.1

Apache Hadoop生态系统安装包下载地址:http://archive.apache.org/dist/ 软件安装目录:~/app jdk: jdk-7u45-linux-x64.rpm hadoop: hadoop-2.5.1-src.tar.gz maven: apache-maven-3.0.5-bin.zip protobuf: protobuf-2.5.0.tar.gz 1.下载hadoop wget http://archive.apache.org/dist/hadoop/

Ubuntu Server 16.04.1 LTS 64位下编译并运行bitcoin-v0.15.1

依赖库安装 ? 安装编译环境 apt-get -y install build-essential libtool autotools-dev automake autoconf pkg-config bsdmainutils python3 安装必备依赖库 apt-get -y install libssl-dev libboost-all-dev libevent-dev 安装钱包依赖库 apt-get -y install libdb-dev libdb++-dev 安装其他依赖库 apt

ios 64位下编译webrtc的libvpx库出现错误Bad cputype for object file.Currently only tested for CPU_TYPE_x86_64

diff --git a/libvpx.gyp b/libvpx.gypindex 4f8cb2b..4eb6866 100644--- a/libvpx.gyp+++ b/libvpx.gyp@@ -74,7 +74,7 @@ # support for neon and hide it behind Android cpu-features. 'includes': ['libvpx_srcs_arm_neon_cpu_detect_intrinsics.gypi', ], }],- [ '

Hadoop 2.2.0 在CentOS6.2 64位下的编译

最近在学习搭建Hadoop,直接从Apache官方网站直接下载最新版本Hadoop2.2,结果运行时发现提示 “libhadoop.so.1.0.0 which might have disabled stack guard” 的警告.Google了一下发现是因为 hadoop 2.2.0提供的是libhadoop.so库是32位的,而我们的机器是64位. 所以需要重新在64位的机器上编译hadoop. 1.安装JDK 下载JDK1.7的Linux 64位版本jdk-7u15-linux-x64

CentOS6.5、Hadoop-2.2.0、64 位的编译

1.安装CentOS6.5 下载地址是 http://mirror.neu.edu.cn/centos/6.5/isos/x86_64/ 选择 CentOS-6.5-x86_64-bin-DVD1.iso 下载,注意是 64 位的,大小是 4GB,需要下载一段时间的. 其实 6.x 的版本都可以,不一定是 6.5,一定要保持 linux 联网状态. 说明:我把软件下载后全部复制到/usr/local 目录下,以下命令执行的路径是在/usr/local 目录下. 请读者在阅读时,一定要注意路径.