hadoop-2.4.0-x64+hive-1.2.1+Zookeeper-3.4.5+Hbase-0.98.21自动化安装脚本

参考资料:Hadoop2.3.0详细安装过程
开源中国git: https://git.oschina.net/lucky110100/sloth.git

你没看错,这就是2.4.0版本的安装脚本,虽然参考的是2.3.0的。



安装环境:
虚拟机软件: VirtualBox-4.3.8-92456-Win.exe
虚拟机系统: CentOS-6.5-x86_64-bin-DVD1.iso,64位,分配1CPU,2G内存
Hadoop版本: hadoop-2.4.0-64bit.tar.gz 下载
Nginx文件服务器: nginx-1.10.0.zip Windows版本,解压即用,主要用来提供文件下载。

主要说一下这些脚本都是干什么的,具体安装过程请到git中查看脚本内容。

sloth/linux/hadoop/sln-2.4.0.sh

hadoop自动安装的主要入口,以root用户执行,操作示例如下:

Last login: Wed Sep 28 15:49:27 2016 from 172.16.4.102
[[email protected] ~]# cd /home/install/hadoop/
[[email protected] hadoop]# ./sln-2.4.0.sh
./sln-2.4.0.sh 错误:请传入参数,(1、类型:name/node;2、机器名:name00/node01;3、机器IP)!
例如:./sln-2.4.0.sh name name00 127.0.0.1
[[email protected] hadoop]# ./sln-2.4.0.sh node node04 172.16.117.4
参数确认: 类型:node   机器名: node04    机器IP:172.16.117.4
继续/跳过(Y/N):y
                                        开始安装……
SSH链接慢?(Y/N):
                                        跳过……
授权公钥……继续/跳过(Y/N):
                                        跳过……
下载脚本……继续/跳过(Y/N):
                                        跳过……
删除已rpm安装的软件……继续/跳过(Y/N):
                                        跳过……
安装java……继续/跳过(Y/N):
                                        跳过……
安装mysql……继续/跳过(Y/N):
                                        跳过……
安装hadoop……继续/跳过(Y/N):
                                        跳过……
安装hive……继续/跳过(Y/N):
                                        跳过……
安装zookeeper……继续/跳过(Y/N):
                                        跳过……
安装hbase……继续/跳过(Y/N):
                                        跳过……
设置环境变量……继续/跳过(Y/N):
                                        跳过……
立即加入Hadoop集群……继续/跳过(Y/N):
                                        跳过……
[[email protected] hadoop]#

允许用户交互,根据需要选择安装。


测试和监控

# 切换用户
su hadoop
# 启动所有
cd /home/hadoop/src/hadoop-2.4.0/sbin/;./start-all.sh
# 停止所有
cd /home/hadoop/src/hadoop-2.4.0/sbin/;./stop-all.sh
验证
hadoop fs -ls hdfs://name00:9000 /
hadoop fs -mkdir hdfs://name00:9000 /testfolder
mapreduce例子
cd /home/hadoop/src/hadoop-2.4.0/share/hadoop/mapreduce/
hadoop fs -copyFromLocal /home/logs/hive/hive.log /input/hive.log
hadoop fs -ls /input
hadoop jar hadoop-mapreduce-examples-2.4.0.jar wordcount /input/hive.log /wordout
hadoop fs -ls /wordout
hadoop fs -tail /wordout/part-r-00000
web监控

服务器状态
http://name00:50070/dfshealth.html
集群信息
http://name00:8088/cluster
查看所有日志信息
http://name00:50070/logs/


问题或期望:

1. Hadoop所有节点两两间无秘访问

hadoop需要在各个节点创建一个用户,并保证用户之间能够无秘访问,互联互通,虽然现在能够用脚本自动生成公钥,并将公钥分发给各个节点,但是两两节点间第一次登录访问还是需要确认和输入密码,节点少当然没问题,但是节点多了,一个个去确认也麻烦,求解决方案!!!

2. 下载更新脚本

目前的实现方式如下

read -p "下载脚本……继续/跳过(Y/N):" isY
if [ "${isY}" == "y" ] || [ "${isY}" == "Y" ];then
	##下载脚本,并删除已rpm安装的软件
	ssh [email protected]$3 "mkdir -p /home/install"
	## 下载脚本
	#ssh [email protected]$3 "cd /home/install;wget -N -r -nH -np -k -L -p $URL_SHELL" #层级下载有点问题
	## 下载脚本包
	ssh [email protected]$3 "cd /home/install;rm -f linux.zip;wget $URL_SHELL/linux.zip"
	## 解压并提权
	ssh [email protected]$3 "cd /home/install;unzip -o linux.zip;chmod a+x /home/install -R"
else
	echo ‘					跳过……‘
fi

需要先在windows下打包一个所有脚本的zip包,再通过wget命令下载,我希望直接从文件服务器遍历下载更新过的脚本,并覆盖,这样就不用每次更新一个脚本都要手动打包一次。
原来我尝试过一次

## 下载脚本
ssh [email protected]$3 "cd /home/install;wget -N -r -nH -np -k -L -p $URL_SHELL"

但是这个命令本地执行没问题,但远端执行就返回错误,会中断整个安装脚本,所以才改成下载压缩包的。

时间: 2024-10-12 09:23:12

hadoop-2.4.0-x64+hive-1.2.1+Zookeeper-3.4.5+Hbase-0.98.21自动化安装脚本的相关文章

MariaDB10.0.21 编译安装 脚本

#!/bin/bash #Auth: #Date:2015/11/09 #About:MariaDB10.0.21 #Version:1.0.0 #a.主机名和IP地址解析添加 function  check_env(){ echo "创建MySQL用户和组" groupadd mysql useradd -g mysql -s /sbin/nologin -M mysql echo "加入主机名和IP到/etc/hosts" IP1=`ifconfig $1|se

Hadoop 2.2 & HBase 0.96 Maven 依赖总结

由于Hbase 0.94对Hadoop 2.x的支持不是非常好,故直接添加Hbase 0.94的jar依赖可能会导致问题. 但是直接添加Hbase0.96的依赖,由于官方并没有发布Hbase 0.96的jar包,通过maven编译项目的时候会出现找不到jar包导致编译失败. 通过网上的资料,得知Hbase 0.94后版本,直接添加Hbase-Client的依赖,通过查询得知需要以下依赖: [html] view plain copy <dependency> <groupId>co

用shell脚本自动化安装hadoop

一.概述 1.1 简介 本文主要介绍怎样用 shell 实现 hadoop 的自动化安装.关于手动安装 hadoop 的步骤,可以查看以下链接: http://www.cnblogs.com/13bear/articles/3700842.html 1.2 环境 OS: CentOS release 6.4 (Final) Hadoop:Apache hadoop V1.2.1 1.3 脚本下载 http://pan.baidu.com/s/1eQHyfZk 二.脚本综述 2.1 脚本目录列表

【hadoop】16、学习hive操作语句

学习DDL语句 创建对象的语句 Create/Drop/Alter Database Create Database CREATE (DATABASE|SCHEMA) [IF NOT EXISTS] database_name [COMMENT database_comment] [LOCATION hdfs_path] [WITH DBPROPERTIES (property_name=property_value, ...)]; Drop Database DROP (DATABASE|SC

基于hadoop的数据仓库工具:Hive概述

Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供完整的sql查询功能,可以将sql语句转换为MapReduce任务进行运行.其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析. Hive是建立在 Hadoop 上的数据仓库基础构架.它提供了一系列的工具,可以用来进行数据提取转化加载(ETL),这是一种可以存储.查询和分析存储在 Hadoop 中的大规模数据的机

Hadoop第9周练习—Hive部署测试(含MySql部署)

1  运行环境说明... 3 1.1 硬软件环境... 3 1.2 机器网络环境... 3 2 书面作业1:搭建Hive环境... 3 2.1 书面作业1内容... 3 2.2 搭建过程... 4 2.2.1   安装MySql数据库... 4 2.2.2   安装Hive. 10 2.2.3   验证部署... 15 3 问题解决... 17 3.1 设置mysql数据库root用户密码报错... 17 3.2 hive启动,报CommandNeedRetryException异常... 19

Hadoop集群中使用Hive查询报错

今天在使用Hive查询某分析数据最大值的时候,出现了一定的问题,hive中现象如下: Caused by: java.io.FileNotFoundException://http://slave1:50060/tasklog?attemptid=attempt_201501050454_0006_m_00001_1 然后查看一下jobtracker的日志: 2015-01-05 21:43:23,724 INFO org.apache.hadoop.mapred.JobInProgress:

《hadoop权威指南》关于hive的第一个小例子的演示

本文是<hadoop权威指南>关于hive的小例子,通过这个例子可以很好地看出来hive是个什么东西. 前提是已经配置好hive的远程连接版本的环境,我是用了MYSQL数据库保存元数据. 环境要求: -配置好了Hadoop的HDFS文件系统,启动hdfs和yarn -配置好了hive的远程连接模式 -配置好了MySQL用于metadata的储存 输入文件下载: https://github.com/tomwhite/hadoop-book/blob/master/input/ncdc/micr

Hadoop企业级完整训练:Rocky的16堂课(HDFS&amp;MapReduce&amp;HBase&amp;Hive&amp;Zookeeper&amp;Sqoop&amp;Pig&amp;Flume&amp;Project) - 0515

Hadoop是云计算的事实标准软件框架,是云计算理念.机制和商业化的具体实现,是整个云计算技术学习中公认的核心和最具有价值内容. 如何从企业级开发实战的角度开始,在实际企业级动手操作中深入浅出并循序渐进的掌握Hadoop是本课程的核心.   云计算学习者的心声: 如何从企业级开发的角度,不断动手实际操作,循序渐进中掌握Hadoop,直到能够直接进行企业级开始,是困惑很多对云计算感兴趣的朋友的核心问题,本课程正是为解决此问题而生,学习者只需要按照一步步的跟着视频动手操作,即可完全无痛掌握Hadoo

Csimsoft.Trelis.Pro.v16.0.X64+Design-Expert.v10.0.2.0

Csimsoft.Trelis.Pro.v16.0.X64    Trelis不仅仅是擦亮了Cubit与一个新的名字. 包括新特性请求和Trelis可用性建议从商业Cubit全世界用户.是csimsoftTrelis的高端商业预处理程序和CFD对有限元分析的基础上,Cubita?¢实用软件桑迪亚国家实验室. 二十多年来,开发了Cubitcsimsoft会同桑迪亚,桑迪亚的授权分销商学术和商业用途csimsoft和桑迪亚一直在研究的方法来提高啮合过程超过20年使用Cubit为研究平台,测试新代码.