【甘道夫】Ubuntu群集配置 - 免费登陆

引言

这是几年前写的文章,但一直以来该问题被反复问到。所以我决定将它又一次搬上屏幕。



正文

三个节点:masternode    slavenode1   slavenode2


第一步:全部节点分别生成密钥对

全部节点都要做:命令行中,在当前用户根文件夹运行

ssh-keygen -t rsa

密钥成功生成后是存储在当前用户根文件夹下的.ssh隐藏文件夹下,直接用 cd .ssh 就能进入,然后用ls命令就能看到id_rsa    id_rsa.pub


第二步:拷贝生成authorized_keys

全部节点都要做:将id_rsa.pub复制到文件anthorized_keys文件里。在 .ssh 目录下用命令

cp id_rsa.pub authorized_keys


第三步:合并全部节点的authorized_keys文件,并分发到全部节点根文件夹的 .ssh 隐藏文件夹下

slavenode1中将authorized_keys发送到masternode的temp1暂时文件里:

scp ~/.ssh/authorized_keys masternode:~/.ssh/temp1

slavenode2中将authorized_keys发送到masternode的temp2暂时文件里:

scp ~/.ssh/authorized_keys masternode:~/.ssh/temp2

masternode中将temp1和temp2附加到authorized_keys文件里,这种话masternode的authorized_keys文件就包括了全部节点的公钥:

cat ~/.ssh/temp1 >> ~/.ssh/authorized_keys

cat ~/.ssh/temp2 >> ~/.ssh/authorized_keys

rm ~/.ssh/temp1

rm ~/.ssh/temp2

masternode中将合并好的authorized_keys文件分发到各节点:

scp ~/.ssh/authorized_keys slavenode1:~/.ssh/

scp ~/.ssh/authorized_keys slavenode2:~/.ssh/


第四步:全部系统配置  /etc/ssh/sshd_config  文件,使得系统使用公钥认证,并能识别 authorized_keys

cd /etc/ssh/ 以后,sudo gedit sshd_config 在文件里找到下面几行

RSAAuthentication yes

PubkeyAuthentication yes

#AuthorizedKeysFile%h/.ssh/authorized_keys

把#去掉就可以,系统就能通过authorized_keys来识别公钥了


第五步:检查sshd是否执行/安装。假设未安装将不能成功相互连接

执行 ps -e | grep ssh。查看是否有sshd进程

假设没有,说明server没启动。通过 /etc/init.d/ssh -start 启动server进程

假设提示ssh不存在 那么就是没安装server

通过 sudo apt-get install openssh-server命令安装就可以


第六步:解决 Agent admitted failure to sign using the key

假设出现该错误,则须要在全部的节点都运行   ssh-add   ~/.ssh/id_rsa   将私钥增加ssh。

至此,大功告成。。应该就能够在随意一台机器使用 ssh  masternode/slavenode1/slavenode2 避password彼此连接了!!!

版权声明:本文博主原创文章。博客,未经同意不得转载。

时间: 2024-10-03 22:40:34

【甘道夫】Ubuntu群集配置 - 免费登陆的相关文章

【甘道夫】Hadoop2.2.0 NN HA详细配置+Client透明性试验【完整版】

引言: 前面转载过一篇团队兄弟[伊利丹]写的NN HA实验记录,我也基于他的环境实验了NN HA对于Client的透明性. 本篇文章记录的是亲自配置NN HA的详细全过程,以及全面测试HA对客户端访问透明性的全过程,希望对大家有帮助. 实验环境: Hadoop2.2.0的4节点集群,ZK节点3个(ZK节点数最好为奇数个),hosts文件和各节点角色分配如下: hosts: 192.168.66.91 master 192.168.66.92 slave1 192.168.66.93 slave2

【甘道夫】Hive 0.13.1 on Hadoop2.2.0 + Oracle10g部署详解

环境: hadoop2.2.0 hive0.13.1 Ubuntu 14.04 LTS java version "1.7.0_60" Oracle10g ***欢迎转载,请注明来源***    http://blog.csdn.net/u010967382/article/details/38709751 到以下地址下载安装包 http://mirrors.cnnic.cn/apache/hive/stable/apache-hive-0.13.1-bin.tar.gz 安装包解压到

【甘道夫】MapReduce实现矩阵乘法--实现代码

之前写了一篇分析MapReduce实现矩阵乘法算法的文章:[甘道夫]Mapreduce实现矩阵乘法的算法思路 为了让大家更直观的了解程序执行,今天编写了实现代码供大家参考. 编程环境: java version "1.7.0_40" Eclipse Kepler Windows7 x64 Ubuntu 12.04 LTS Hadoop2.2.0 Vmware 9.0.0 build-812388 输入数据: A矩阵存放地址:hdfs://singlehadoop:8020/wordsp

【甘道夫】Win7x64环境下编译Apache Hadoop2.2.0的Eclipse小工具

目标: 编译Apache Hadoop2.2.0在win7x64环境下的Eclipse插件 环境: win7x64家庭普通版 eclipse-jee-kepler-SR1-win32-x86_64.zip Apache Ant(TM) version 1.8.4 compiled on May 22 2012 java version "1.7.0_45" 參考文章: http://kangfoo.u.qiniudn.com/article/2013/12/build-hadoop2x

【甘道夫】NN HA 对于 Client 透明的实验

之前转载过一篇[伊利丹]写的NN HA实验记录,该博客描述了主备NN透明切换的过程,也就是说,当主NN挂掉后,自动将备NN切换为主NN了,Hadoop集群正常运行. 今天我继续做了一个实验,目的是实现NN的切换不会对Client端程序造成影响,即NN切换对Client透明. 首先,很重要的一点: 要保证core-site.xml中的 <property> <name>fs.defaultFS</name> <value>hdfs://hadoop-clust

【甘道夫】Win7x64环境下编译Apache Hadoop2.2.0的Eclipse插件

目标: 编译Apache Hadoop2.2.0在win7x64环境下的Eclipse插件 环境: win7x64家庭普通版 eclipse-jee-kepler-SR1-win32-x86_64.zip Apache Ant(TM) version 1.8.4 compiled on May 22 2012 java version "1.7.0_45" 参考文章: http://kangfoo.u.qiniudn.com/article/2013/12/build-hadoop2x

【甘道夫】Win7环境下Eclipse连接Hadoop2.2.0

准备: 确保hadoop2.2.0集群正常运行 1.eclipse中建立java工程,导入hadoop2.2.0相关jar包 2.在src根目录下拷入log4j.properties,通过log4j查看详细日志 log4j.rootLogger=debug, stdout, R log4j.appender.stdout=org.apache.log4j.ConsoleAppender log4j.appender.stdout.layout=org.apache.log4j.PatternLa

【甘道夫】Sqoop1.4.4 实现将 Oracle10g 中的增量数据导入 Hive0.13.1 ,并更新Hive中的主表

需求 将Oracle中的业务基础表增量数据导入Hive中,与当前的全量表合并为最新的全量表. ***欢迎转载,请注明来源***    http://blog.csdn.net/u010967382/article/details/38735381 设计 涉及的三张表: 全量表:保存了截止上一次同步时间的全量基础数据表 增量表:增量临时表 更新后的全量表:更新后的全量数据表 步骤: 通过Sqoop将Oracle中的表导入Hive,模拟全量表和增量表 通过Hive将"全量表+增量表"合并为

【甘道夫】Hadoop2.4.1尝鲜部署+完整版配置文件

引言 转眼间,Hadoop的stable版本已经升级到2.4.1了,社区的力量真是强大!3.0啥时候release呢? 今天做了个调研,尝鲜了一下2.4.1版本的分布式部署,包括NN HA(目前已经部署好了2.2.0的NN HA,ZK和ZKFC用现成的),顺便也结合官方文档 http://hadoop.apache.org/docs/r2.4.1/hadoop-project-dist/hadoop-common/ClusterSetup.html  梳理.补全了关键的配置文件属性,将同类属性归