hadoop的单机配置

hadoop的单机配置

准备工作

利用vim /etc/sysconfig/network命令修改主机名称。

Ssh security shell

远程登录

登录远程服务器

$ ssh [email protected]

如果本地用户名与远程用户名一致,登录时可以省略用户名。

$ ssh host

提示信息

The authenticity of host ‘host (12.18.429.21)‘ can‘t be established.

  RSA key fingerprint is 98:2e:d7:e0:de:9f:ac:67:28:c2:42:2d:37:16:58:4d.

Are you sure you want to continue connecting (yes/no)?

说明

这段话的意思是,无法确认host主机的真实性,只知道它的公钥指纹,问你还想继续连接吗?

所谓"公钥指纹",是指公钥长度较长(这里采用RSA算法,长达1024位),很难比对,所以对其进行MD5计算,将它变成一个128位的指纹。上例中是98:2e:d7:e0:de:9f:ac:67:28:c2:42:2d:37:16:58:4d,再进行比较,就容易多了。

很自然的一个问题就是,用户怎么知道远程主机的公钥指纹应该是多少?回答是没有好办法,远程主机必须在自己的网站上贴出公钥指纹,以便用户自行核对。

假定经过风险衡量以后,用户决定接受这个远程主机的公钥。

同意接受远程主机公钥

Are you sure you want to continue connecting (yes/no)? yes

系统提示认可

Warning: Permanently added ‘host,12.18.429.21‘ (RSA) to the list of known hosts.

输入密码

Password: (enter password)

说明

当完成以上几步以后,就可以登录到远程服务器端了。当远程主机的公钥被接受以后,它就会被保存在文件$HOME/.ssh/known_hosts之中。下次再连接这台主机,系统就会认出它的公钥已经保存在本地了,从而跳过警告部分,直接提示输入密码。这样有一个缺点,就是每一次登录的时候都要输入密码,这样的操作是比较繁琐的。

公钥登录

步骤

1、 机器A发送自己的公钥到机器B,这个时候机器B有了机器A的公钥

2、 机器B发送一个随机的字符串向机器A

3、 机器A利用自己的私钥把字符串加密

4、 机器A把加密后的字符串再次发送给机器B

5、 机器B利用公钥解密字符串,如果和原来的一样,则OK。

实现

1、 生成自己的公钥和私钥

$ ssh-keygen

2、 把生成的公钥copy到远程机器上

$ ssh-copy-id [email protected]

3、 远程主机的authorized_keys文件

在远程主机上生成了一个authorized_keys文件,保存公钥的。

4、当再次访问的时候就不需要输入密码了。

jdk安装

上传jdk

在/home下创建一个文件夹app

jdk解压app下

调用tar –zxvf 文件的目录    的命令把jdk解压缩在app目录下

命令解释:

tar –zxvf  文件的路径

f:指定文件的名称

z:以gz结尾的文件就是用gzip压缩的结果。与gzip相对的就是gunzip,这个参数的作用就是用来调用gzip。

X:为解开的意思

Z:详细报告处理文件的信息

转到jdk的bin目录下,输出java命令

[[email protected] bin]# ./java

Usage: java [-options] class [args...]

(to execute a class)

or  java [-options] -jar jarfile [args...]

(to execute a jar file)

where options include:

-d32          use a 32-bit data model if available

-d64          use a 64-bit data model if available

-server       to select the "server" VM

The default VM is server.

-cp <class search path of directories and zip/jar files>

-classpath <class search path of directories and zip/jar files>

A : separated list of directories, JAR archives,

and ZIP archives to search for class files.

当离开bin这个目录,输出java命令

[[email protected] bin]# cd ..

[[email protected] jdk1.7.0_45]# java

bash: java: command not found

[[email protected] jdk1.7.0_45]#

上述的内容很简单:不识别java这个命令

设置环境变量

export JAVA_HOME=/home/app/jdk1.7.0_45/

export PATH=$PATH:$JAVA_HOME/bin

把这两行配置放入到/etc/profile以后,要做source /etc/profile这样一个命令。

这样就设置了环境变量。

Echo命令

[[email protected] /]# echo $JAVA_HOME

/home/app/jdk1.7.0_45/

可以利用该命令看环境变量。

默认的配置文件

在hadoop-hdfs.jar包中,有一个配置文件

Hadoop-default.xml文件

在hadoop-common.jar包中,有一个配置文件

core-default.xml文件

修改hadoop-env.sh

主要是修改java_home的路径,在hadoop-env.sh的第27行。

把export JAVA_HOME=${JAVA_HOME}修改成具体的路径

[[email protected] hadoop]# vim hadoop-env.sh

export JAVA_HOME=${JAVA_HOME}àexport JAVA_HOME=/home/app/jdk1.7.0_45/

[[email protected] hadoop]# source hadoop-env.sh

如果比较难找,利用: set nu命令可以显示行数

修改core-site.xml

[[email protected] hadoop]# vim core-site.xml

原来的内容:

<configuration>

</configuration>

现在的内容:

<configuration>

<property>

<name>fs.defaultFS</name>  namenode的名字

<value>hdfs://zd01:9000</value>  namenode的地址

</property>

<property>

<name>hadoop.tmp.dir</name>  文件存储的名称

<value>/home/app/hadoop-2.6.0/tmp</value>   文件存储的地址

</property>

文件存储路径

data节点的路径

name节点的路径

修改hdfs-site.xml

原来的内容

<configuration>

</configuration>

现在的内容:

<configuration>

<property>

<name>dfs.replication</name>  //指的是hdfs的副本的数量,包括自己。

<value>3</value>

</property>

</configuration>

修改mapred-site.xml

说明:在/etc/hadoop的目录下,只有一个mapred-site.xml.template文件,所以必须改名

[[email protected] hadoop]# mv mapred-site.xml.template mapred-site.xml

在mapred-site.xml文件中

原来的文件

<configuration>

</configuration>

现在的文件

<configuration>

<property>  //指明mapreduce运行在yarn上

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

</configuration>

修改yarn-site.xml

原来的值:

<configuration>

<!-- Site specific YARN configuration properties -->

</configuration>

现在的值:

<configuration>

<property>

//指定resourcemanager的地址

<name>yarn.resourcemanager.hostname</name>

<value>zd01</value>

</property>

<property>

//reduce获取数据的方式

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

</configuration>

修改slaves

存放的是datanode节点的名称

配置hadoop的环境变量

export HADOOP_HOME=/home/app/hadoop-2.6.0/

export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin:$ANT_HOME/bin

格式化namenode

操作

hdfs namenode –format(Hadoop namenode –format  以前的方式)

在格式化的时候,会有这样的输出:

Storage directory /tmp/hadoop-root/dfs/name has been successfully formatted

作用

1、 清空namenode目录下的所有的文件,上图中的tmp/dfs/name下的所有的内容就是要清空的内容

2、 创建一些文件,例如:fsimage,edits文件

启动hadoop

在/home/app/hadoop-2.6.0/sbin目录下

[[email protected] sbin]# start-all.sh

时间: 2024-10-16 09:29:39

hadoop的单机配置的相关文章

Hadoop安装&amp;单机/伪分布式配置_Hadoop2.7.2/Ubuntu14.04

一.安装Java 1.下载jdk-8u91-linux-x64.tar.gz文件,网址为:http://www.oracle.com/technetwork/java/javase/downloads/index.html 2.安装: #选择一个安装路径,我选择的是/opt,并将下载的jdk-8u91-linux-x64.tar.gz文件复制到这个文件夹下 $ cd /opt $ sudo cp ~/Downloads/jdk-8u91-linux-x64.tar.gz -i /opt/ #解压

windows下hadoop的单机伪分布式部署(3)

下面介绍myeclipse与hadoop的集成. 我用的myeclipse版本是8.5. 1.安装hadoop开发插件 在hadoop1.2.1版本的安装包contrib/目录下,已经不再提供hadoop-eclipse-pligin-1.2.1.jar; 而是提供了源代码文件,需要我们自行重新编译成jar包文件:这里方便,大家可以从这里下载: hadoop-eclipse-plugin-1.2.1.jar.pdf 由于博客上传文件的类型限制,故添加了pdf后缀,下载之后重命名,去掉".pdf&

windows下hadoop的单机伪分布式部署(1)

hadoop的运行环境应该是在linux环境.如果想在windows环境下安装和运行hadoop,一般有两种方式:一种是VM的方式linux操作系统,这样可以实现全linux环境的hadoop运行:另一种方式安装cygwin模拟linux环境,该方法相对比较简单方便. 本文采取cywin的方式.下面将介绍下cygwin的安装与配置: (1)cygwin的安装 下载cygwin安装文件:http://cygwin.com; 我用的是64位版:操作系统为win7: 下载的setup文件实际上只是一个

【Hadoop基础教程】2、Hadoop之单机模式搭建

单机模式所需要的系统资源是最少的,这种安装模式下,Hadoop的core-site.xml.mapred-site.xml.hdfs-site.xml配置文件均为空.默认情况下,官方hadoop-1.2.1.tar.gz文件默认使用的就是单机安装模式.当配置文件为空时,Hadoop完全运行在本地,不与其他节点交互,也不使用Hadoop文件系统,不加载任何守护进程,该模式主要用于开发调试MapReduce应用程序的逻辑,不与任何守护进程交互进而避免复杂性.以hadoop用户远程登录K-Master

[Hadoop入门] - 2 ubuntu安装与配置 hadoop安装与配置

ubuntu安装(这里我就不一一捉图了,只引用一个网址, 相信大家能力) ubuntu安装参考教程:  http://jingyan.baidu.com/article/14bd256e0ca52ebb6d26129c.html 注意下面几点: 1.设置虚拟机的IP, 点击虚拟机的右下角网络连接图标, 选择”桥接模式“, 这样才能分配到你的局域网IP, 这个很重要因为后面hadoop要用到局域网. 2.在ubuntu里面查看ip的命令:ifconfig可以显示出你的IP地址, 看一下IP是否为你

windows下hadoop的单机伪分布式部署(2)

下面开始hadoop的安装与配置: (1)安装jdk 我安装的是JDK1.7.0_40,windows x64版的 下载完之后,直接点击安装, 我的安装路径为默认路径:C:\Program Files\Java\jdk1.7.0_40: 安装完毕后,设置环境变量: JAVA_HOME指向JDk安装目录 PATH指向JDK的bin目录 设置完成之后,在cmd中 输入java命令,如果出现一下画面,即为安装成功: (2)安装hadoop 下载hadoop,http://hadoop.apache.o

Ubuntu 安装 Hadoop(单机模式)

一.在Ubuntu下创建hadoop组和hadoop用户 增加hadoop用户组,同时在该组里增加hadoop用户,后续在涉及到hadoop操作时,我们使用该用户. 1.创建hadoop用户组 2.创建hadoop用户 sudo adduser -ingroup hadoop hadoop 回车后会提示输入新的UNIX密码,这是新建用户hadoop的密码,输入回车即可. 如果不输入密码,回车后会重新提示输入密码,即密码不能为空. 最后确认信息是否正确,如果没问题,输入 Y,回车即可. 3.为ha

Hadoop 2.2 配置安装

环境:centos 5.5, Hadoop 2.2 第一步: 安装JDK7 1.1 下载jdk7 http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html, 我用的jdk1.7.0_51 1.2 下载完成后解压到某个目录,这里举例解压在/home/software/下. 1.3 正常情况下,centos已经带了某个版本的jdk,但是可能不是jdk7. 这样的话,就需要用jdk7替换当前版

Hadoop单机版安装配置

[toc] Hadoop单机版安装配置 前言 Hadoop单机版本的环境搭建比较简单,这里总结一下. Centos基本配置 网络配置 IPADDR=192.168.43.101 NETMASK=255.255.255.0 GATEWAY=192.168.43.2 DNS1=202.96.128.166 DNS2=202.96.128.86 配置完成后重启网络: service network restart 修改主机名和IP地址映射文件 vim /etc/sysconfig/network 将H