hadoop分布式的环境搭建

版本: 使用hadoop1.1.2    JDK为java7

1.下载hadoop

2.配置hadoop文件

3测试

1.下载hadoop:

1.1

https://archive.apache.org/dist/hadoop/common/   中下载hadoop1.1.2 , 这里注意要下载 hadoop的bin,而不是带有src的文件 ,src的文件是未经编译的hadoop

1.2

解压hadoop , 把hadoop的压缩包放在/opt下面 ,然后 使用命令解压 tar –zvxf hadoop-x.y.z.tar.gz

2  hadoop的环境设置

2.1配置环境变量:

这一步其实是可以不要的, 为了方便使用hadoop的shell命令,要在/etc/profile添加hadoop的的命令到path中;

export HADOOP_INSTSALL="opt/hadoop/hadoop1.1.2"

export PATH=${HADOOP_INSTALL}/bin:${PATH}

2.2配置集群的主机名:

在/etc/hosts中添加主机与IP的映射关系:

vim /etc/hosts

配置完成之后 , 可以使用个ping <主机名> 来检测一下

2.3建立ssh的免密码互联 , UbuntuDesktop是没有sshServer的,只有SshClient ,但是UbuntuServer是可以选择安装SShServer的

因此要先安装sshServer , 使用命令apt-get ssh

在ubuntu14.10的时候,ssh会出现版本不一致而无法使用, 可以把原来的ssh全部删除,然后重新安装就行勒

安装好ssh之后 , 可以使用建立免密码互联了 , 具体步骤参照下一篇

在${HADOOP_INSTALL}/conf中修改core-site.xml为

hadoop.tmp.dir是必须要指明的 ,否则重启的时候datanod无法启动 ,

在${HADOOP_INSTALL}/conf中修改hdfs-site.xml为

在hadoop-env.sh中加入

export JAVA_HOME=${JAVA_HOME}  ####前提是你已经在系统中设置JAVA_HOME, 如果没有 就直接写自己的JAVA_HOME所在地

然后 刷新 source ./hadoop-env.sh

在msters中设置master的Ip

指明datanode的节点

最后  , 关机重启 . 或者是使用 source /etc/profile

时间: 2024-11-07 20:56:33

hadoop分布式的环境搭建的相关文章

(原创)hadoop 分布式开发环境搭建

一,安装java环境 添加java环境变量 vi /etc/profile # add by tank export JAVA_HOME=/data/soft/jdk/jdk1.7.0_71 export JRE_HOME=$JAVA_HOME/jre export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar export PATH=$PATH:$JAVA_HOME/bin:$JRE_HOME/bin 二,修改文件句柄数

hadoop和hdfs环境搭建

参考链接:http://blog.csdn.net/zolalad/article/details/11470449 环境:ubuntu14.04 hadoop1.0.1 下面以3台机器为例,讲解安装过程 1) 准备3台机器,一台作为nameNode,命名为master,两台作为dataNode,命名为slave01, slave02.强调命名是为了方便管理,其实命名无所谓.如果已命名为其它名称,可通过编辑/etc/hostname进行更改. 2) 为所有主从节点配置静态ip,因为主从节点间需要

Hadoop源代码阅读环境搭建

Hadoop源代码阅读环境搭建 一.说明 作为一个学习hadoop的同学.必须在本机上搭建hadoop源代码阅读环境,这样,在方便阅读源代码的同一时候也方便进行调试和源代码改动. 好了.以下開始搭建好开发环境. 1.环境说明:hadoop 版本号:1.2.1. IDE:eclipse.操作系统:centos 2.网上有人是通过eclipse的新建项目指定文件夹的方式将hadoop文件夹转换成Eclipseproject同一时候导入eclipse,详细做法例如以下: File-->new-->J

Hadoop 分布式集群搭建 &amp; 配置

一. 安装Java Java下载 官网下载合适的jdk,本人使用的是jdk-7u79-linux-x64.tar.gz,接下来就以该版本的jdk为例,进行Java环境变量配置 创建Java目录 在/usr/local目录下创建java目录,用于存放解压的jdk cd /usr/local mkdir java 解压jdk 进入java目录 cd java tar zxvf jdk-7u79-linux-x64.tar.gz 配置环境变量 编辑profile文件 cd /etc vim profi

《Programming Hive》读书笔记(一)Hadoop和hive环境搭建

<Programming Hive>读书笔记(一)Hadoop和Hive环境搭建 先把基本的技术和工具学好,才能更高效地思考和工作. Chapter 1.Introduction 简介 Chapter 2.Getting Started 环境配置 Hadoop版本会更新,以官方安装教程为准 http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/SingleCluster.html#Standalone_O

win7+Myeclipse10开发Hadoop应用程序环境搭建

1.复制linux下已配置安装好的hadoop目录进入windows, 同时修改hadoo-env.sh文件的JAVA_HOME为windows下的jdk目录. 2.复制hadoop-eclipse-1.2.jar插件进入myeclipse文件夹下dropins下 下载:我的文件下有一个以hadoop-eclipse1.2.rar文件(压缩包),下载下来,将后缀改为jar就可以了 3.重启myeclipse 4.配置:windows-Preference->windows下的hadoop目录 5

windows下单机版的伪分布式solrCloud环境搭建Tomcat+solr+zookeeper

前面简单了解了ZooKeeper的相关知识,为SolrCloud的学习作了一层铺垫.在SolrCloud的wiki中,可以很简单地用jetty实现嵌入式ZooKeeper的单机版SolrCloud.但是在生产环境中,Solr一般都是部署在Tomcat上的.为了使架构更加灵活,ZooKeeper也是单独部署的.日常学习中,就一台单机怎么学习solrCloud呢?本文将记录在win7上实现ZooKeeper+Tomcat版的伪分布式SolrCloud. 1.软件工具箱 在本文的实践中,需要用到以下的

windows 7使用eclipse下hadoop应用开发环境搭建

因为一些缘故,这节内容到现在才写,其实弄hadoop有一段时间了,可以编写一些小程序了,今天来还是来说说环境的搭建.... 说明一下:这篇文章的步骤是接上一篇的hadoop文章的:http://blog.csdn.net/enson16855/article/details/37725771 ,如果不是按照上篇的方式安装hadoop,可能会有些错误~百度一下就能解决的哈~ 准备环境: 不用多说了,我用eclipse版本是最新JavaEE版本,叫什么LUA Kepler,本来是用Juno的,因为操

分享知识-快乐自己:Liunx-大数据(Hadoop)初始化环境搭建

大数据初始化环境搭建: 一):大数据(hadoop)初始化环境搭建 二):大数据(hadoop)环境搭建 三):运行wordcount案例 四):揭秘HDFS 五):揭秘MapReduce 六):揭秘HBase 七):HBase编程 ----------------------------------------------------------------- 1):需要准备三个虚拟机环境(创建方式:可以单独创建三个虚拟机:点我查看如何安装虚拟机.也可以通过克隆方式:点我查看克隆详情) 2):