mac或linux下安装hadoop-2.8流程

mac上安装hadoop

1,mac下的java

ll /usr/bin |grep‘java‘

默认:

/System/Library/Frameworks/JavaVM.framework/Versions/Current/Commands/java

具体的安装路径:

/Library/Java/JavaVirtualMachines/下面,

JAVA_HOME是/Library/Java/JavaVirtualMachines/jdk1.7.0_75/Contents/Home。

2,mac下的ssh

首先测试ssh localhost,

若不成功,看是否启动允许remotelogin,再尝试如果失败则继续下面的

ssh-keygen -t dsa-P ‘‘ -f ~/.ssh/id_dsa

ssh-keygen表示生成秘钥;

-t表示秘钥类型;-P用于提供密语;-f指定生成的秘钥文件。

这个命令在”~/.ssh/“文件夹下创建两个文件id_dsa和id_dsa.pub,是ssh的一对儿私钥和公钥。

接下来,将公钥追加到授权的key中去,输入:

cat~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

再次尝试

ssh localhost

若无法打开,解决方法如下:

进入Mac的系统偏好设置 –> 共享–> 勾选remote login,并设置allow access for all users。

3,下载镜像,mirror,选择某一个tar.gz

http://mirror.bit.edu.cn/apache/hadoop/common/

4,设置环境变量

vi ~/.bash_profile 或者/etc/profile中

exportJAVA_HOME=/Library/Java/JavaVirtualMachines/jdk1.7.0_75/Contents/Home

exportJRE_HOME=$JAVA_HOME/jre

exportHADOOP_HOME=/Users/xiaolong.zhao/ittools/hadoop

#是防止出现:Warning:$HADOOP_HOME is deprecated的警告错误。

exportHADOOP_HOME_WARN_SUPPRESS=1

exportPATH=$JAVA_HOME/bin:$JRE_HOME/bin: $ HADOOP_HOME /sbin:$HADOOP_HOME/bin:$PATH

注意:linux与mac的安装,唯一区别就是mac下会有默认的jdk路径的,以及ssh配置的

5,配置hadoop-env.sh

在/Users/xiaolong.zhao/ittools/hadoop/etc/hadoop目录下,找到hadoop-env.sh,打开编辑进行如下设置:

export  JAVA_HOME=${JAVA_HOME}(去掉注释)

export  HADOOP_HEAPSIZE=2000(去掉注释)

export  HADOOP_OPTS=”-Djava.security.krb5.realm=OX.AC.UK-Djava.security.krb5.kdc=kdc0.ox.ac.uk:kdc1.ox.ac.uk”(去掉注释)

6, 4个核心文件配置

6.1.配置core-site.xml——(defaultFS)指定了NameNode的主机名与端口

<?xmlversion="1.0" encoding="UTF-8"?>  
<configuration>
     <!-- fs.defaultFS - 这是一个描述集群中NameNode结点的URI(包括协议、主机名称、端口号),集群里面的每一台机器都需要知道NameNode的地址。
     DataNode结点会先在NameNode上注册,这样它们的数据才可以被使用。独立的客户端程序通过这个URI跟DataNode交互,以取得文件的块列表。-->
    <property>  
       <name>fs.defaultFS</name> 
       <value>hdfs://localhost:8000</value>  
    </property>  
 
     <!-- hadoop.tmp.dir 是hadoop文件系统依赖的基础配置,很多路径都依赖它。
     如果hdfs-site.xml中不配置namenode和datanode的存放位置,默认就放在这个路径中-->
    <property>  
       <name>hadoop.tmp.dir</name> 
       <value>/Users/time/Documents/hadoop-2.7.3/tmp</value>  
        <description>A base for othertemporary directories.</description> 
    </property> 
</configuration>

6.2. 配置hdfs-site.xml——指定了HDFS的默认参数副本数

 
<?xmlversion="1.0" encoding="UTF-8"?>  
<configuration>  
     <!-- dfs.replication -它决定着 系统里面的文件块的数据备份个数。对于一个实际的应用,它应该被设为3。
     少于三个的备份,可能会影响到数据的可靠性-->
        <property>
          <name>dfs.replication</name>
           <value>1</value>
        </property>
 
        <!-- datanaode和namenode的物理存储,如果不设置,它的值hadoop.tmp.dir-->
        <property>
            <name>dfs.namenode.name.dir</name>
            <value>/home/hdfs/name</value>
        </property>
 
        <!-- 可以不设置,namenode的Web 监控 端口,默认是0.0.0.0:50070-->
        <property>
            <name>dfs.namenode.http-address</name>
             <value>localhost:57000</value>
        </property>
 
        <property>
          <name>dfs.datanode.data.dir</name>
          <value>/home/hdfs/data</value>
        </property>
 
</configuration>

6.3 mapred-site.xml配置

  <property>  
        <name>mapreduce.framework.name</name>  
        <value>yarn</value>  
    </property>

6.4 Yarn-site.xml 配置

<?xmlversion="1.0"?> 
 <configuration> 
 
  <!-- resourcemanager --> 
  <!-- client visit address -->
  <property> 
  <name>yarn.resourcemanager.address</name>
  <value>localhost:18040</value> 
  </property> 
 
  <!-- ApplicationMaster visit address-->
  <property> 
  <name>yarn.resourcemanager.scheduler.address</name>
  <value>localhost:18030</value> 
  </property> 
 
  <!-- NodeManager visit address -->
  <property> 
  <name>yarn.resourcemanager.resource-tracker.address</name>
  <value> localhost:18025</value> 
  </property> 
 
  <!-- web visit address -->
  <property> 
  <name>yarn.resourcemanager.webapp.address</name>
  <value>localhost:18088</value> 
  </property> 
 
  <!-- NodeManager support mapreduce service--> 
  <property> 
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value> 
  </property> 
 </configuration>

7, 格式化namenode

hdfs namenode-format

8, 启动hadoop

8.1sbin/start-all.sh

8.2 web测试

8.2.1 namenode-web

http://localhost:50070

8.2.2resourcemanager-web

http://localhost:18088

8.2.3 nodemanager-web

http://localhost:8042

时间: 2024-10-13 23:50:22

mac或linux下安装hadoop-2.8流程的相关文章

Linux下安装Hadoop(2.7.1)详解及WordCount运行

一.引言 在完成了Storm的环境配置之后,想着鼓捣一下Hadoop的安装,网上面的教程好多,但是没有一个特别切合的,所以在安装的过程中还是遇到了很多的麻烦,并且最后不断的查阅资料,终于解决了问题,感觉还是很好的,下面废话不多说,开始进入正题. 本机器的配置环境如下: Hadoop(2.7.1) Ubuntu Linux(64位系统) 下面分为几个步骤来详解配置过程. 二.安装ssh服务 进入shell命令,输入如下命令,查看是否已经安装好ssh服务,若没有,则使用如下命令进行安装: sudo

Linux下安装Hadoop

第一步: Hadoop需要JAVA的支持,所以需要先安装JAVA 查看是否已安装JAVA 查看命令: java -version JRE(Java Runtime Environment),它是你运行一个基于Java语言应用程序的所正常需要的环境. 安装命令: apt-get install default-jre 查看是否安装成功 java -version 如果显示如下类似的文字,表示安装成功 java version "1.7.0_131" 第二步: 下载Hadoop,地址:ht

如何在Centos下安装hadoop并与Eclipse连接?

如何在Centos下安装hadoop并与Eclipse连接? 许久之前就计划学习hadoop了,直到最近才提上日程.花费了一些时间才把centos下的hadoop搭起来,前后经历的"挫折"绝对可以写成数千字的血泪史了.既有被网上教程坑了的苦逼遭遇,也有教研室大超师兄和实习公司的泡哥的爱心支援.今天终于可以坐下来说说如何在Centos下安装hadoop并与Eclipse连接这个问题. 先说一下要准备哪些软件和信息: VMware-workstation: CentOS-6.0-i386-

Linux下安装 Posgresql 并设置基本参数

在Linux下安装Postgresql有二进制格式安装和源码安装两种安装方式,这里用的是二进制格式安装.各个版本的Linux都内置了Postgresql,所以可直接通过命令行安装便可.本文用的是Centos6.5. 安装Postgresql # 安装postgresql服务器 yum install postgresql-server #依赖包是否安装 Y/N Y #第三方贡献包 yum install postgresql-contrib #依赖包是否安装 Y/N Y 安装成功后,数据库状态

Linux下安装jekyll

折腾了大半天,终于搞定了,这可得记下来了. 我的Linux版本:CentOS 6.5 主要的安装顺序还是官网上的说明:http://jekyllrb.com/docs/installation/,所以安装jekyll之前需要安装ruby, gem, NodeJs 1-首先,先给系统装上gcc yum install gcc 2-然后,这里推荐安装rvm,ruby 和 gem的安装就交给rvm来做吧:https://ruby-china.org/wiki/install_ruby_guide 有几

linux下安装使用libuuid(uuid-generate)

linux下安装使用libuuid(uuid-generate) linux下安装使用libuuid(uuid-generate) UUID简介 安装libuuid库 编写一个程序试一下 代码 编译运行 UUID简介 UUID含义是通用唯一识别码(Universally Unique Identifier),这 是一个软件建构的标准,也是被开源软件基金会 (Open Software Foundation, OSF) 的组织应用在分布式计算环境 (Distributed Computing En

linux下安装zookeeper(集群版)

在linux下安装zookeeper(单机版)中已经介绍了如何在linux中搭建单机版本的zookeeper,本篇将基于上一篇的基础上继续搭建集群版的zookeeper. 在原来的基础上再准备两台虚拟机: 我的虚拟机ip分别是:192.168.174.132,192.168.174.130,192.168.174.131 对应的hostname分别是:master,slave1,slave2 hostname可自行查看和修改:http://jingyan.baidu.com/article/57

虚拟机centos7系统下安装hadoop ha和yarn ha(详细)

一:基础环境准备 (一):虚拟机新建五个centos7系统(复制文件夹的方式) (二):角色分配 (三)按照角色分配表配置 (1)更改主机ip(自行查找),如果只是个人搭建玩一玩,可选择安装centos7图形界面操作比较简单 (2)更改主机名方法, vim /etc/hostname文件,修改成对应的主机名,保存(比如在192.168.254.2这台主机上,就修改成master).再执行hostname 主机名,进行设置. (3)在五个虚拟机系统中修改/etc/hosts文件,添加如下内容 19

【Hadoop】在Ubuntu系统下安装Hadoop单机/伪分布式安装

Ubuntu 14.10 前方有坑: 由于之前的分布式系统电脑带不动,所以想换一个伪分布式试一试.用的是Virtualbox + Ubuntu 14.10 .结果遇到了 apt-get 源无法更新的情况,以及安装包安装不全的情况.只好咬一咬牙,又重新把系统给更新一边. apt-get 源无法更新解决方案:传送门 首先先备份源列表: sudo cp /etc/apt/sources.list /etc/apt/sources.list_backup 用编辑器打开: sudo gedit /etc/