Hadoop生态组件的WebUI地址

================================
Impala 相关
================================
Impala的常用端口:
jdbc/ODBC 端口: 21050
impala-shell 访问端口21000

web UI地址:
impalad节点(一个集群多个该类节点) http://impalad_node:25000/
impala-state节点(一个集群一个该类节点) http://state_node:25010/
impala-catalog节点(一个集群一个该类节点) http://catalog_node:25020/

================================
kudu 相关
================================
kudu Java API 和 impala 访问端口是 kudu master的 7051端口.

impala 表 TBLPROPERTIES 属性设置:
‘kudu.master_addresses‘ = ‘10.205.6.1:7051‘

kudu master 节点web UI
http://kudu_master:8051/
http://kudu_master:8051/tracing.html
该界面可以显示tablet servers 列表, 其host names 和上次心跳时间等信息.

kudu tablet server的web UI
http://kudu_tablet_node:8050
该界面显示有关服务器上托管的每个tablet的信息, 其当前状态以及有关维护后台操作的调试信息.

================================
Hive 相关
================================
Hive JDBC端口 10000

原文地址:https://www.cnblogs.com/harrychinese/p/hadoop_ecosystem_webui.html

时间: 2024-11-03 03:27:28

Hadoop生态组件的WebUI地址的相关文章

关于Hadoop生态中的HA方案的一点思考

在给学生授课和搭建Hadoop生态实验环境的过程中,我发现无论是网络上的参考资料.还是来自大数据服务功供应商的运维文档,给出Hadoop的HA解决方案都如出一辙--使用 ZooKeeper 加 Quorum Journal Manager 方案. 诚然,这一方案久经考验,是十分成熟的可靠方案.与NFS方案相比较,它解除了大量写场景下NFS仅支持单个共享编辑目录的系统可用性限制:与Federation方案相比较,则较好地解决了单个joint-namespace中的单点故障问题,因为篱笆内的各nam

Hadoop——相关组件及其关系

如今Apache Hadoop已成为大数据行业发展背后的驱动力.Hive和Pig等技术也经常被提到,但是他们都有什么功能,为什么会需要奇怪的名字(如Oozie,ZooKeeper.Flume). Hadoop带来了廉价的处理大数据(大数据的数据容量通常是10-100GB或更多,同时数据种类多种多样,包括结构化.非结构化等)的能力.但这与之前有什么不同? 现 今企业数据仓库和关系型数据库擅长处理结构化数据,并且可以存储大量的数据.但成本上有些昂贵.这种对数据的要求限制了可处理的数据种类,同时这种惯

Hadoop以及组件介绍

一.背景介绍 在接触过大数据相关项目的时候常常都会听到Hadoop这个东西,简单来说,他是一个用分布式计算来处理大数据的开源软件,下面包含了许多的组件和子项目,这篇文章将会介绍Hadoop的原理以及一些组件的应用. 二.准备工作 1.确认储存规模 有很多的大数据项目其实数据量跟本没这么大,跟本不需要到使用Hadoop这类的大数据软件,所以,第一步应该是先确认数据量有多大,真的MySQL跑的太久再去使用Hadoop就好. 2.确认数据类型 除了结构化数据以外,现在有些大数据项目需要处理的是一些非结

Hadoop三大组件以及Hive的基础认知

Hadoop三大组件: 分布式文件系统:HDFS —— 实现将文件分布式存储在很多的服务器上(分布式存储) 分布式运算编程框架:MapReduce——实现多台机器的分布式并行运算.(分布式运算) 分布式资源调度平台:YARN —— 帮用户调度大量的mapreduce程序,并合理分配运算资源 Hive 入门 Hive构建在Hadoop上 HQL中对查询语句的解释.优化.生成查询计划是由Hive完成的所有的数据存储在Hadoop上. 查询计划被转化为 MapReduce 任务(job),在 Hado

安装高可用Hadoop生态 (一 ) 准备环境

为了学习Hadoop生态的部署和调优技术,在笔记本上的3台虚拟机部署Hadoop集群环境,要求保证HA,即主要服务没有单点故障,能够执行最基本功能,完成小内存模式的参数调整. 1.    准备环境 1.1. 规划 克隆3台服务器,主机名和IP如下 主机名 IP 软件 hadoop 192.168.154.128 原始虚拟机用于克隆 hadoop1 192.168.154.3 Zookeeper,journalnode Namenode, zkfc, Resourcemanager hadoop2

Hadoop介绍及最新稳定版Hadoop 2.4.1下载地址及单节点安装

 Hadoop介绍 Hadoop是一个能对大量数据进行分布式处理的软件框架.其基本的组成包括hdfs分布式文件系统和可以运行在hdfs文件系统上的MapReduce编程模型,以及基于hdfs和MapReduce而开发的一系列上层应用软件. hdfs是在一个网络中以流式数据访问模式来存储超大文件的跨越多台计算机的分布式文件系统.目前支持的超大文件的范围为从MB级至PB级. MapReduce是一种可用于数据处理的编程模型,基于MapReduce模型的程序本质上都是并行运行的.基于MapReduce

原生hadoop生态系统组件安装文档

CDP组件部署文档 0000-安装包的下载 1- 操作系统centos7  (版本7.2.x) (1)下载地址 https://www.centos.org/download/ (2)进入之后按需选择DVD ISO (3)国内下载链接如下(稳定最新版) 2-JDK (版本1.8.144) 下载地址       http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html 3- hadoop 

【Spark 深入学习 -09】Spark生态组件及Master节点HA

----本节内容------- 1.Spark背景介绍 2.Spark是什么 3.Spark有什么 4.Spark部署 4.1.Spark部署的2方面 4.2.Spark编译 4.3.Spark Standalone部署 4.4.Standalone HA配置 4.5.伪分布式部署 5.Spark任务提交 5.1.Spark-shell 5.2.Spark-submit 6.参考资料 --------------------- 1.Spark背景介绍 Spark是AMLab实验室贡献出的代码,是

hadoop生态搭建(3节点)-10.spark配置

# https://www.scala-lang.org/download/2.12.4.html# ==================================================================安装 scala tar -zxvf ~/scala-2.12.4.tgz -C /usr/local rm –r ~/scala-2.12.4.tgz # http://archive.apache.org/dist/spark/spark-2.3.0/ # ==