Spark(三): 安装与配置

参见 HDP2.4安装(五):集群及组件安装 ,安装配置的spark版本为1.6, 在已安装HBase、hadoop集群的基础上通过 ambari 自动安装Spark集群,基于hadoop yarn 的运行模式。

目录:

  • Spark集群安装
  • 参数配置
  • 测试验证

Spark集群安装:


  • 在ambari -service 界面选择 “add Service",如图:
  • 在弹出界面选中spark服务,如图:

  • "下一步”,分配host节点,因为前期我们已经安装了hadoop 和hbase集群,按向导分配 spark history Server即可
  • 分配client,如下图:
  • 发布安装,如下正确状态

参数配置:


  • 安装完成后,重启hdfs 和 yarn
  • 查看 spark服务,spark thrift server 未正常启动,日志如下:

     
  • 解决方案:调整yarn相关参数配置 yarn.nodemanager.resource.memory-mb、yarn.scheduler.maximum-allocation-mb
  • yarn.nodemanager.resource.memory-mb

    表示该节点上YARN可使用的物理内存总量,默认是8192(MB),注意,我本机的hdp2-3内存为4G,默认设置的值是512M,调整为如下图大小

  • yarn.scheduler.maximum-allocation-mb

    单个任务可申请的最多物理内存量,默认是8192(MB)。

  • 保存配置,重启依赖该配置的服务,正常后如下图:

测试验证:


  • 在任一安装spark client机器(hdp4),将目录切换至 spark 安装目录的 bin目录下
  • 命令: ./spark-sql
  • sql命令: show database;  如下图
  • 查看历史记录,如下:

原文地址:https://www.cnblogs.com/momoyan/p/11616503.html

时间: 2024-08-30 11:10:25

Spark(三): 安装与配置的相关文章

openfire + spark的安装与配置

一. 安装openfire 1. 到官方站点下载openfire , 网站地址: http://www.igniterealtime.org/downloads/index.jsp#openfire 这里有包含jre的版本和不包含jre的版本,建议下载不包含jre的版本,因为如果机器上安装了jdk,再下载包含jre的版本会出现,启动后,点击Lanuch Admin 打不开页面的情况. 2. 下载完成后,解压文件, 打到bin目录下的, openfire.exe, 双击即可启动. 3. 启动成功后

Zabbix最佳实践一:Zabbix Server 的安装与配置

一.概述 在开始之前,一些概念和定义需要我们提前了解一下(以下内容摘自官方网站). 1.1 几个概念 架构 Zabbix 由几个主要的功能组件组成,其职责如下所示. Server Zabbix server 是Zabbix agent 向其报告可用性.系统完整性信息和统计信息的核心组件.是存储所有配置信息.统计信息和操作信息的核心存储库. Zabbix Server 负责执行数据的主动轮询和被动获取,计算触发器条件,向用户发送通知.它是 Zabbix Agent 和 Proxy 报告系统可用性和

Hive on Spark安装与配置(无数坑)

一.版本如下    注意:Hive on Spark对版本有着严格的要求,下面的版本是经过验证的版本 apache-hive-2.3.2-bin.tar.gz hadoop-2.7.2.tar.gz jdk-8u144-linux-x64.tar.gz mysql-5.7.19-1.el7.x86_64.rpm-bundle.tar mysql-connector-java-5.1.43-bin.jar spark-2.0.0.tgz(spark源码包,需要从源码编译) Redhat Linux

RedHat 6.5+11G+RAC+ASM安装与配置(三节点)

一.安装环境 1.实验环境 虚拟机:VMware Workstation 8.0.3_64bit ORACLE:Oracle Database11g11.2.0.3.0-64bit 操作系统:Red HatEnterprise Linux  6.5 2.节点配置 描述 节点1 节点2 节点3 ISCSI存储 主機名稱 note1 note2 note3 iscsi-asm Public IP 172.16.1.7(vlan3) 172.16.1.8(vlan3) 172.16.1.9(vlan3

(App Volumes系列三)Manager配置以及Agent安装

在前一篇博客,我们基本了解了App Volumes的四个逻辑组件,环境配置要求以及如何安装App Volumes Manager组件,我们接下来将继续我们的App Volumes之旅. 首先先回顾一下App Volumes的安装,使用流程: 初始配置 -> App Volumes Manager组件安装-> App Volumes Manager组件配置-> App Volumes Agent组件安装-> 应用提取 -> 应用集合(AppStack)分配. App Volum

openfire+spark+smack 即时通讯(一)---Openfire 的安装和配置

openfire是一个即时通讯服务器,也称之为即时通讯平台.它是基于XMPP协议的,大家所熟悉的通讯软件QQ.MSN和Gtalk等等,其中Gtalk就是基于XMPP协议的实现. 在即时通讯中往往因为需要保存一些状态或者数据所以不能采用点对点通讯,而是需要搭建服务器来转发. 下载地址:http://www.igniterealtime.org/downloads/index.jsp 下载完毕以后根据提示安装.配置,然后访问所配置的服务器地址上的9090端口即可访问官方为我们实现好了的openfir

Windows下面安装和配置Solr 4.9(三)支持中文分词器

首先将下载解压后的solr-4.9.0的目录里面找到lucene-analyzers-smartcn-4.9.0.jar文件, 将它复制到solr的应用程序里面D:\apache-tomcat-7.0.54\webapps\solr\WEB-INF\lib, 备注:网上很多文章使用IK中文分词器(IK_Analyzer2012_u6.jar)但是在solr-4.9.0版本中,我是一直没有配置成功.所以只能使用solr自带的中文分词器了. 在回到solr的应用程序目录(D:\Demos\Solr\

spark HA 安装配置和使用(spark1.2-cdh5.3)

安装环境如下: 操作系统:CentOs 6.6 Hadoop 版本:CDH-5.3.0 Spark 版本:1.2 集群5个节点 node01-05 node01-03 为worker node04.node05为master spark HA 必须要zookeepr来做协同服务,做master主备切换,zookeeper的安装和配置再次不做赘述. yum源的配置请看: 1.安装 查看spark的相关包有哪些: [[email protected] hadoop-yarn]# yum list |

理解 OpenStack Swift (1):OpenStack + 三节点Swift 集群+ HAProxy + UCARP 安装和配置

本系列文章着重学习和研究OpenStack Swift,包括环境搭建.原理.架构.监控和性能等. (1)OpenStack + 三节点Swift 集群+ HAProxy + UCARP 安装和配置 (2)Swift 原理和架构 (3)Swift 监控 (4)Swift 性能 要实现的系统的效果图: 特点: 使用三个对等物理节点,每个节点上部署所有Swift 服务 使用开源的 UCARP 控制一个 VIP,它会被绑定到三个物理网卡中的一个. 使用开源的 HAProxy 做负载均衡 开启 Swift