centos7 安装 hadoop-cdh-2.5 on mesos

1.环境说明

master    192.168.0.223   mesos-master

slave     192.168.0.225   mesos-salve

2.环境准备

关闭防火墙

关闭selinux

两台机器修改主机名master/slave

设置hosts,能互相解析

3.master和slave配置ssh互信

这里配置hadoop用户双机互信,因为hadoop用hadoop用户启动

master 
  yum  -y install  sshpass
  ssh-keygen 一路回车
  ssh-copy-id -i ~/.ssh/id_rsa.pub [email protected]
slave
  yum  -y install  sshpass
  ssh-keygen 一路回车
  ssh-copy-id -i ~/.ssh/id_rsa.pub [email protected]
测试ssh对方主机,不提示输入密码则OK

4.安装JDK

tar zxvf jdk-8u65-linux-x64.tar.gz
mv jdk1.8.0_65  /usr/jdk

4.1设置环境变量

export JAVA_HOME=/usr/jdk
export JRE_HOME=/usr/jdk/jre
export CLASSPATH=.:$CLASSPATH:$JAVA_HOME/lib:$JRE_HOME/lib
export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin
执行 source  /etc/profile

4.2测试JDK

java -version #出现版本信息

5.安装mesos主从,看其他博客

安装完成,会在/usr/local/lib下生成一个libmesos.so文件

6.安装和配置Hadoop

master和slave

tar zxvf hadoop-2.5.0-cdh5.4.8.tar.gz
mv hadoop-2.5.0-cdh5.4.8  /usr/hadoop
cd  /usr/hadoop
mkdir -p tmp

cd /usr/hadoop/
mv bin bin-mapreduce2/ 
ln -s bin-mapreduce1  bin
mv example  example-mapreduce2 
ln -s example-mapreduce1  example

cd etc/
mv hadoop hadoop-mapreduce2
ln -s hadoop-mapreduce1 hadoop

7.添加hadoop环境变量

vim /etc/profile
 export HADOOP_HOME=/usr/hadoop
 export PATH=$PATH:$HADOOP_HOME:$HADOOP_HOME/bin
source /etc/profile

8.获取hadoop on mesos的jar包

yum -y install maven openjdk-7-jdk git 
git clone 
cd hadoop 
mvn package   #获取jar包,jar包会在target下

9.把获取的jar包放到hadoop安装目录下

master和slave

cp hadoop/target/hadoop-mesos-0.1.0.jar  /usr/hadoop/share/hadoop/common/lib/

10.配置hadoop on mesos

master和slave

vim  /usr/hadoop/etc/hadoop/mapred.site.xml
<property>
  <name>mapred.job.tracker</name>
  <value>localhost:9001</value>
</property>
<property>
  <name>mapred.jobtracker.taskScheduler</name>
  <value>org.apache.hadoop.mapred.MesosScheduler</value>
</property>
<property>
  <name>mapred.mesos.taskScheduler</name>
  <value>org.apache.hadoop.mapred.JobQueueTaskScheduler</value>
</property>
<property>
  <name>mapred.mesos.master</name>
  <value>zk://192.168.0.223</value>
</property>
<property>
  <name>mapred.mesos.executor.uri</name>
  <value>hdfs://localhost:9000/hadoop-2.5.0-cdh5.2.0.tar.gz</value>
</property>

11.给hadoop用户权限

master和slave

chown -R  hadoop:hadoop /usr/hadoop

12.在master上启动jobtracker,连接mesos

su hadoop 
MESOS_NATIVE_LIBRARY=/usr/local/lib/libmesos.so hadoop jobtracker

13.测试

输入 192.168.0.223:5050 看看框架里有没有hadoop

时间: 2024-10-22 21:10:22

centos7 安装 hadoop-cdh-2.5 on mesos的相关文章

centos7安装hadoop完全分布式集群

groupadd test             //新建test工作组 useradd -g test phpq        //新建phpq用户并增加到test工作组 userdel 选项 用户名 常用的选项是 -r,它的作用是把用户的主目录一起删除. chmod u+w /etc/sudoers vim /etc/sudoers 在文件的如下位置,为hadoop用户和spark用户添加一行即可: root ALL=(ALL) ALL hadoop ALL=(ALL) ALL spark

Centos-7安装hadoop

一.Linux的配置 集群的规模:3台 Windows的服务器: 8GB 50GB左右的一个盘 以下的配置都必须在Master(2G) slave slave1上进行配置 1.时钟同步 su root aliyun.com 时钟域名 cn.pool.ntp.org 时钟域名 crontab -e 打开linux的自动时钟同步文件 0 1 * * * /usr/sbin/ntpdate cn.pool.ntp.org | aliyun.com 分时日月年 当下立刻同步:/usr/sbin/ntpd

CentOS7上Hadoop 2.6.0集群的安装与配置

转载请注明出处:http://blog.csdn.net/l1028386804/article/details/45740791 1.CentOS7安装 (1)最小化安装CentOS7 (2)配置网络连接 vi/etc/sysconfig/network-scripts/ifcfg-eth0 修改:BOOTPROTO=static ONBOOT=yes 添加:IPADDR= ipaddress(ip地址) NETMASK=subnetmask(子网掩码) GATEWAY=gateway(网关)

CentOS7 通过Ambari安装Hadoop集群

第一次在cnblogs上发表文章,效果肯定不会好,希望各位多包涵. 编写这个文档的背景是月中的时候,部门老大希望我们能够抽时间学习一下Hadoop大数据方面的技术:给我的学习内容是通过Ambari安装Hadoop集群.通过一周左右的学习和实践,整理出现在这篇安装心得. 安装默认使用Root用户,避免权限问题导致不成功. 使用4台虚拟机构建Ambari-Server.Hadoop集群,分配如下: -       一台虚拟机,作为Ambari-Server: Hostname: ambari.ser

Linux上安装Hadoop集群(CentOS7+hadoop-2.8.0)

1下载hadoop 2安装3个虚拟机并实现ssh免密码登录 2.1安装3个机器 2.2检查机器名称 2.3修改/etc/hosts文件 2.4 给3个机器生成秘钥文件 2.5 在hserver1上创建authorized_keys文件 2.6将authorized_keys文件复制到其他机器 2.7 测试使用ssh进行无密码登录 2.7.1在hserver1上进行测试 2.7.2在hserver2上进行测试 2.7.3在hserver3上进行测试 3安装jdk和hadoop 3.1安装JDK 3

CentOS7安装CDH 第九章:CDH中安装Kafka

相关文章链接 1. CDH官网Kafka的安装教程网址 https://www.cloudera.com/documentation/kafka/latest/topics/kafka_installing.html#concept_m2t_d45_4r 2. 下载对应的Kafka版本 1.查看CDH和Kafka的版本对应列表: 查看网址:https://www.cloudera.com/documentation/enterprise/release-notes/topics/rn_conso

CentOS7下Hadoop Single Node Cluster的安装

一.安装JDK,并配置环境变量.因为Hadoop是以Java开发的,所以必须先安装Java环境二.安装SSH,设置SSH无密码登录.Hadoop是由很多台服务器所组成的.当我们启动Hadoop系统时,NameNode必须与DataNode连接,并管理这些节点(DataNode).此时系统会要求用户输入密码.为了让系统顺利运行而不需手动输入密码,就需要SSH设置成无密码登录.   注意:无密码登录登录并非不需要密码,而是以事先交换SSH Key(密钥)的方式来进行身份验证 1.安装SSH:Cent

安装hadoop

1:安装包 http://hadoop.apache.org/releases.html http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html hadoop-2.6.4 (binary) jdk-8u102-linux-x64.tar.gz 2:节点信息 centos7 * 3 master 10.10.0.115 slave1 10.10.0.116 slave2 10.10.0.

CentOS7安装Hadoop2.7完整流程

总体思路,准备主从服务器,配置主服务器可以无密码SSH登录从服务器,解压安装JDK,解压安装Hadoop,配置hdfs.mapreduce等主从关系. 1.环境,3台CentOS7,64位,Hadoop2.7需要64位Linux,CentOS7 Minimal的ISO文件只有600M,操作系统十几分钟就可以安装完成,Master 192.168.0.182Slave1 192.168.0.183Slave2 192.168.0.184 2.SSH免密码登录,因为Hadoop需要通过SSH登录到各

开发人员学Linux(14):CentOS7安装配置大数据平台Hadoop2.9.0

1.前言 "大云物移"是当年很火热的一个话题,分别指大数据.云计算.物联网和移动互联网,其中大数据领域谈论得多就是Hadoop.当然Hadoop不代表大数据,而是大数据处理领域的一个比较有名的开源框架而已,通常说的大数据包含了大数据的存放.大数据的分析处理及大数据的查询展示,本篇提到的Hadoop只不过是在其中的大数据的分析处理环节起作用,Apache提供了一个开源全家桶,包括了Hadoop.HBase.Zookeeper.Spark.Hive及Pig等一些框架.不过限于篇幅,本篇只介