NUTCH2.3 hadoop2.7.1 hbase1.0.1.1 solr4.8.1部署(一)



Precondition:

hadoop 2.7.1

Nutch 2.3

hbase 1.0.1.1 / hbase 0.98.13

solr 4.8.1

Linux version 3.16.0-4-amd64

jdk1.8.0_45

hadoop编译部署

1. 安装相关软件

apt-get install ssh rsync

apt-get install openssh-server

apt-get install maven

apt-get install autoconf automake libtool cmake zlib1g-dev pkg-config libssl-dev

hadoop 使用openjdk可能导致问题,必须使用sun jdk,也就是不能“apt-get install default-jdk”

这篇文章使用的都是jdk1.8.0_45

hadoop 需要使用protobuf2.5,不是最新的2.6,可以从我的资源里面下载,网上也有。

运行protoc 2.5 的时候需要加上export LD_LIBRARY_PATH=/usr/local/lib

2. ssh免密码登录,网上有很多参考

1) cd /root/

2) ssh-keygen -t rsa

/root/.ssh/下生成id_rsa和id_isa.pub两个文件

3) ssh-copy-id -i .ssh/id_rsa.pub [email protected]

将本机id_isa.pub拷贝到对方。

4) ssh 192.168.1.106

5) 遇到权限问题,可以尝试:

chmod 700 -R .ssh

chmod 644 /root/.ssh/authorized_keys

3. 编译hadoop前准备

export LD_LIBRARY_PATH=/usr/local/lib

export JAVA_HOME=/disk2/java/jdk1.8.0_45

export JRE_HOME=${JAVA_HOME}/jre

export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib

export PATH=${JAVA_HOME}/bin:$PATH

4. mvn clean package -Pdist,native -DskipTests -Dtar

mvn可能因为下载挂住,停止再运行一下mvn package -Pdist,native -DskipTests -Dtar就好了

将编译好的tar文件解压即可

5. 部署前准备,两台机器192.168.1.105(datanode) / 192.168.1.106(namenode / datanode)

以下修改都是在192.168.1.106上面修改,然后scp到另外机器

/etc/profile

export JAVA_HOME=/disk2/java/jdk1.8.0_45

export HADOOP_HOME=/disk2/hadoop/hadoop-2.7.1

export PATH=$JAVA_HOME/bin:$HADOOP_HOME/bin:$PATH

6. $HADOOP_HOME/etc/hadoop/hadoop-env.sh

该文件是hadoop运行基本环境的配置,需要修改的为java虚拟机的位置。

export JAVA_HOME=${JAVA_HOME} =>

export JAVA_HOME=/disk2/java/jdk1.8.0_45

7. $HADOOP_HOME/etc/hadoop/yarn-env.sh

该文件是yarn框架运行环境的配置,同样需要修改java虚拟机的位置。

export JAVA_HOME=/disk2/java/jdk1.8.0_45

8. $HADOOP_HOME/etc/hadoop/slaves

直接输入机器IP即可

192.168.1.105

192.168.1.106

9.参考修改:

$HADOOP_HOME/etc/hadoop/core-site.xml

<configuration>
<property>
<name>fs.default.name</name>
<value>hdfs://192.168.1.106:9000</value>
</property>
</configuration>

$HADOOP_HOME/etc/hadoop/hdfs-site.xml

<configuration>
		<property>
			<name>dfs.http.address</name>
			<value>192.168.1.106:50070</value>
		</property>

		<property>
			<name>dfs.namenode.secondary.http-address</name><value>192.168.1.106:50090</value>
		</property>

		<property>
			<name>dfs.replication</name>
			<value>1</value>
		</property>
        <property>
                <name>dfs.name.dir</name>
                <value>/disk2/hadoop/hdfs/name</value>
        </property>
        <property>
                <name>dfs.data.dir</name>
                <value>/disk2/hadoop/hdfs/data</value>
        </property>
        <property>
                <name>dfs.permissions</name>
                <value>false</value>
       </property>
</configuration>

$HADOOP_HOME/etc/hadoop/mapred-site.xml

<configuration>
        <property>
                <name>mapred.job.tracker</name>
                <value>192.168.1.106:9001</value>
        </property>
        <property>
                <name>mapred.system.dir</name>
                <value>/disk2/hadoop/hdfs/mapred.system.dir</value>
        </property>
        <property>
                <name>mapred.local.dir</name>
                <value>/disk2/hadoop/hdfs/mapred.local.dir</value>
        </property>
</configuration>

10. 创建必须目录

mkdir -p /disk2/hadoop/hdfs/mapred.local.dir

mkdir -p /disk2/hadoop/hdfs/mapred.system.dir

mkdir -p /disk2/hadoop/hdfs/name

mkdir -p /disk2/hadoop/hdfs/data

11.部署到其他机器

scp /etc/profile 192.168.1.105:/etc/

scp -r hadoop-2.7.1/ 192.168.1.105:/disk2/hadoop/

12. 格式化namenode

bin/hdfs namenode -format

13. 启动

sbin/start-all.sh

14:测试

http://192.168.1.106:50070

http://192.168.1.106:8088

应该都能访问

bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.1.jar pi 20 10



版权声明:本文为博主原创文章,未经博主允许不得转载。

时间: 2024-08-12 12:14:26

NUTCH2.3 hadoop2.7.1 hbase1.0.1.1 solr4.8.1部署(一)的相关文章

NUTCH2.3 hadoop2.7.1 hbase1.0.1.1 solr4.8.1部署(二)

 Precondition: hadoop 2.7.1 hbase 1.0.1.1 / hbase 0.98.13 192.168.1.106 ->master 192.168.1.105 ->slave / regionservers hbase部署 直接下载hbase bin文件 hbase1.0.1.1 还有hbase 0.98.13 和hadoop2.7.1 / hadoop 2.5.2 配合并没有问题.只不过 Nutch2.3 似乎和hbase 0.98.13 配合比较好. 1.

NUTCH2.3 hadoop2.7.1 hbase1.0.1.1 solr5.2.1部署(二)

?? Precondition: hadoop 2.7.1 hbase 1.0.1.1 / hbase 0.98.13 192.168.1.106 ->master 192.168.1.105 ->slave / regionservers hbase部署 直接下载hbase bin文件 hbase1.0.1.1 还有hbase 0.98.13 和hadoop2.7.1 / hadoop 2.5.2 配合并没有问题. 仅仅只是 Nutch2.3 似乎和hbase 0.98.13 配合比較好.

hadoop2.6和hbase1.0单机版安装配置

环境 系统:Ubuntu 14.04 hadoop版本:2.6.0 hbase版本:1.0 jdk版本:1.8 下载地址:Apache上慢慢找吧~~ jdk的环境配置这里就不列出来了,首先讲一下hadoop配置吧. hadoop安装 1.安装位置:/opt 2.创建hadoop用户组 sudo addgroup hadoop 3.创建hadoop用户 sudo adduser -ingroup hadoop hadoop 4.给hadoop添加权限 sudo vim /etc/sudoers 在

hadoop2.6.0 + hbase-1.0.0 伪分布配置

1 基本配置 主机名: 192.168.145.154 hadoop2 ======= 2 etc/hadoop下文件配置 1)core-site.xml <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://hadoop2:8020</value> </property> <property> <name>io.fil

Hadoop学习笔记-010-CentOS_6.5_64_HA高可用-Hadoop2.6+Zookeeper3.4.5安装Hbase1.0.0

参考: http://www.aboutyun.com/blog-9721-986.html http://www.cnblogs.com/jun1019/p/6260492.html 虚拟机中共五个centos系统,每个系统有两个用户root和hadoop:cdh1,cdh2,cdh3,cdh4,cdh5 集群规划 安装hbase(cdh1机器) 第一步,解压已下载好的hbase安装包 #tar -zxvf hbase-1.0.0-cdh5.4.4.tar.gz 解压后删除hbase安装包,节

mac下安装伪分布hadoop2.6.0和hbase1.0.1.1

1.安装JDK,我安装的是java1.7 2.创建管理员账户 3.安装ssh服务(如果已有跳过此步) 4.ssh无密码验证登陆 以上过程略,可参考ubuntu下安装hadoop一文. 5.下载并解压hadoop2.6.0安装包 tar -xzvf hadoop-2.6.0.tar.gz /Users/hadoop 6.配置hadoop-env.sh,core-site.xml,mapred-site.xml,hdfs-site.xml,yarn-site.xml. hadoop-env.sh中加

Ubuntu 14.10 下ZooKeeper+Hadoop2.6.0+HBase1.0.0 的HA机群高可用配置

1 硬件环境 Ubuntu 14.10 64位 2 软件环境 openjdk-7-jdk hadoop 2.6.0 zookeeper-3.4.6 hbase-1.0.0 3 机群规划 3.1 zookeeper配置-机器结点 192.168.1.100 1421-0000192.168.1.106 1421-0003192.168.1.107 1421-0004192.168.1.108 1421-0005192.168.1.109 1421-0006 3.2 hadoop配置-机器结点 19

Hadoop2.6+Zookper3.4+Hbase1.0部署安装

继hadoop完全分布式安装后,再结合zookper+hbase安全.在之前环境配置下继续进行. 一.zookper安装 1.1 下载并解压软件 cd /software wget -c http://apache.fayea.com/zookeeper/zookeeper-3.4.10/zookeeper-3.4.10.tar.gz tar -zxf zookeeper-3.4.10.tar.gz -C /usr/local/ ln -sv /usr/local/zookeeper-3.4.1

HBase1.0分布式NoSQL数据库部署及使用

基于上篇Hadoop2.6集群部署博文:http://lizhenliang.blog.51cto.com/7876557/1661354 接下来部署HBase1.0分布式NoSQL数据库,HBase中涉及到HMaster和HRegionServer两个概念. (注:以下概念来着百度百科) HMaster主要负责Table和Region管理工作: 1. 管理用户对Table的增.删.改.查操作 2. 管理HRegionServer的负载均衡,调整Region分布 3. 在Region Split