sparkR集群启动脚本的封装。

[Author]: kwu

sparkR默认是以单机方式运行的。实现sparkR的集群启动,需要指定master地址,占用内存、CPU,及UI端口等,这对分析人员来说是比较麻烦的。

如何实现对其启动的封装,方便分析人员来使用:

创建启动的脚本文件

 vi bdcmagicR

输入以下内容

#!/bin/bash
function rand(){
    min=$1
    max=$(($2-$min+1))
    num=$(($RANDOM+1000000000)) #增加一个10位的数再求余
    echo $(($num%$max+$min))
}  

rnd=$(rand 400000 500000)
echo $rnd  

/opt/modules/spark/bin/sparkR --master spark://10.130.2.20:7077 --executor-memory 8g --total-executor-cores 45 --conf spark.ui.port=$rnd

说明:

1)首先使用一个随机函数生成一个40000到50000之间随机数,用来做UI的端口。

2)然后指定指定master地址,占用内存、CPU。

3)最后把bdcmagicR 加入环境变量即可。

使用时,在终端输入 bdcmagicR

即可以集群方式启动运行sparkR

版权声明:本文为博主原创文章,未经博主允许不得转载。

时间: 2024-07-30 13:42:49

sparkR集群启动脚本的封装。的相关文章

Redis集群启动脚本

redis版本:redis-5.0.0 Centos: centos 7 64位 #!/bin/bash redis_path="/usr/local/cluster/" cluster_num=`ps aux | grep redis | wc -l` if [ "${cluster_num}" -le 0 ] then echo -e "===== Success: Has killed all cluster progress." else

hadoop集群启动ssh免密登录

1.hadoop对hdfs集群的管理提供两种脚本 hadoop-daemons.sh 本地启动脚本:对集群中的单个节点操作 start-dfs.sh 集群启动脚本:对集群中所有节点统一操作 2.SSH免密登录(防止集群登录超时) ①生成公私钥 1 ssh-keygen -t rsa 在用户目录下有个.ssh文件(隐藏文件),添加authorized_keys文本,将生成的公钥内容重定向(>>)到该文件中. ②直接使用如下命令,可以看到.ssh文件中自动生成了authorized_keys授信文

Oracle 学习之RAC(七) 集群启动解析

集群安装完毕后,重启计算机,集群会跟在系统一起启动.网上很多文章都说是在/etc/inittab中添加一行 h1:35:respawn:/etc/init.d/init.ohasd run >/dev/null 2>&1 但是在我装出来的系统中,inittab中并没有设置任何集群启动的信息.那么集群究竟是怎么启动的呢? 我们查看一下/etc/rc5.d或者/etc/rc3.d这个目录下的脚本. [[email protected] rc5.d]# ll S96ohasd  lrwxrw

Hadoop集群启动、初体验

1. 启动方式要启动Hadoop集群,需要启动HDFS和YARN两个集群.注意:首次启动HDFS时,必须对其进行格式化操作.本质上是一些清理和准备工作,因为此时的HDFS在物理上还是不存在的.hdfs namenode–format或者hadoop namenode –format1.1. 单节点逐个启动在主节点上使用以下命令启动HDFS NameNode:hadoop-daemon.sh start namenode在每个从节点上使用以下命令启动HDFS DataNode:hadoop-dae

flume-ng 集群搭脚本

#!/bin/bash # author: xirong # date : 2015-02-06 ##### 搭建 flume 集群的脚本 # 注意: # 1. 需要 jdk7 环境,如果没有 Java 环境,请配置 # 2. 有 /home/work 目录,否则无法安装 # #### # 压缩文件解压 tar -zxf apache-flume-1.5.2-bin.tar.gz -C /home/work/flume_cluster/ # 配置flume环境 echo '## flume co

Hadoop集群启动之后,datanode节点未正常启动的问题

Hadoop集群启动之后,用JPS命令查看进程发现datanode节点上,只有TaskTracker进程.如下图所示 master的进程: 两个slave的节点进程 发现salve节点上竟然没有datanode进程. 查看了日志,发现有这样一句话: 这句话的意思是:datanode上的data目录权限是765,而期望权限是755,所以使用chmod 755 data命令,将目录权限改为755. 再次重启hadoop集群,发现datanode节点已经正常启动.

由于dns服务为启动导致的GI集群启动故障

1.物业由于突然断电导致grid集群重新启动后rac数据库无法正常启动,对集群进行检查,结果如下,发现其中有4个数据库状态为instance shutdown.[[email protected] ~]# su - grid[[email protected] ~]$ crsctl status res -t--------------------------------------------------------------------------------NAME          

k8s集群启动了上万个容器(一个pod里放上百个容器,起百个pod就模拟出上万个容器)服务器超时,无法操作的解决办法

问题说明: 一个POD里放了百个容器,然后让K8S集群部署上百个POD,得到可运行上万个容器的实验目的. 实验环境:3台DELL裸机服务器,16核+64G,硬盘容量忽略吧,上T了,肯定够. 1.一开始运行5000多个容器的时候(也就50个POD),集群部署后,10几分钟就起来了,感觉还不错. 2.增加压力,把50个POD增加到100个POD,感觉也不会很长时间,都等到下班后又过了半个小时,还是没有起来,集群链接缓慢,使用kubect里面的命令,好久都出不来信息,UI界面显示服务器超时. 心想,完

zookeeper源码 — 三、集群启动—leader、follower同步

zookeeper集群启动的时候,首先读取配置,接着开始选举,选举完成以后,每个server根据选举的结果设置自己的角色,角色设置完成后leader需要和所有的follower同步.上面一篇介绍了leader选举过程,这篇接着介绍启动过程中的leader和follower同步过程. 本文结构如下: 同步过程 总结 同步过程 设置server当前状态 server刚启动的时候都处于LOOKING状态,选举完成后根据选举结果和对应配置进入对应的状态,设置状态的方法是: private void se