Hadoop常用端口和定义方法

Hadoop集群的各部分一般都会使用到多个端口,有些是daemon之间进行交互之用,有些是用于RPC访问以及HTTP访问。而随着Hadoop周边组件的增多,完全记不住哪个端口对应哪个应用,特收集记录如此,以便查询。

这里包含我们使用到的组件:HDFS, YARN, HBase, Hive, ZooKeeper:


组件


节点


默认端口


配置


用途说明


HDFS


DataNode


50010


dfs.datanode.address


datanode服务端口,用于数据传输


HDFS


DataNode


50075


dfs.datanode.http.address


http服务的端口


HDFS


DataNode


50475


dfs.datanode.https.address


https服务的端口


HDFS


DataNode


50020


dfs.datanode.ipc.address


ipc服务的端口


HDFS


NameNode


50070


dfs.namenode.http-address


http服务的端口


HDFS


NameNode


50470


dfs.namenode.https-address


https服务的端口


HDFS


NameNode


8020


fs.defaultFS


接收Client连接的RPC端口,用于获取文件系统metadata信息。


HDFS


journalnode


8485


dfs.journalnode.rpc-address


RPC服务


HDFS


journalnode


8480


dfs.journalnode.http-address


HTTP服务


HDFS


ZKFC


8019


dfs.ha.zkfc.port


ZooKeeper FailoverController,用于NN HA


YARN


ResourceManager


8032


yarn.resourcemanager.address


RM的applications manager(ASM)端口


YARN


ResourceManager


8030


yarn.resourcemanager.scheduler.address


scheduler组件的IPC端口


YARN


ResourceManager


8031


yarn.resourcemanager.resource-tracker.address


IPC


YARN


ResourceManager


8033


yarn.resourcemanager.admin.address


IPC


YARN


ResourceManager


8088


yarn.resourcemanager.webapp.address


http服务端口


YARN


NodeManager


8040


yarn.nodemanager.localizer.address


localizer IPC


YARN


NodeManager


8042


yarn.nodemanager.webapp.address


http服务端口


YARN


NodeManager


8041


yarn.nodemanager.address


NM中container manager的端口


YARN


JobHistory Server


10020


mapreduce.jobhistory.address


IPC


YARN


JobHistory Server


19888


mapreduce.jobhistory.webapp.address


http服务端口


HBase


Master


60000


hbase.master.port


IPC


HBase


Master


60010


hbase.master.info.port


http服务端口


HBase


RegionServer


60020


hbase.regionserver.port


IPC


HBase


RegionServer


60030


hbase.regionserver.info.port


http服务端口


HBase


HQuorumPeer


2181


hbase.zookeeper.property.clientPort


HBase-managed ZK mode,使用独立的ZooKeeper集群则不会启用该端口。


HBase


HQuorumPeer


2888


hbase.zookeeper.peerport


HBase-managed ZK mode,使用独立的ZooKeeper集群则不会启用该端口。


HBase


HQuorumPeer


3888


hbase.zookeeper.leaderport


HBase-managed ZK mode,使用独立的ZooKeeper集群则不会启用该端口。


Hive


Metastore


9083


/etc/default/hive-metastore中export PORT=来更新默认端口

 

Hive


HiveServer


10000


/etc/hive/conf/hive-env.sh中export HIVE_SERVER2_THRIFT_PORT=来更新默认端口

 

ZooKeeper


Server


2181


/etc/zookeeper/conf/zoo.cfg中clientPort=


对客户端提供服务的端口


ZooKeeper


Server


2888


/etc/zookeeper/conf/zoo.cfg中server.x=[hostname]:nnnnn[:nnnnn],标蓝部分


follower用来连接到leader,只在leader上监听该端口。


ZooKeeper


Server


3888


/etc/zookeeper/conf/zoo.cfg中server.x=[hostname]:nnnnn[:nnnnn],标蓝部分


用于leader选举的。只在electionAlg是1,2或3(默认)时需要。

所有端口协议均基于TCP。

对于存在Web UI(HTTP服务)的所有hadoop daemon,有如下url:

/logs

日志文件列表,用于下载和查看

/logLevel

允许你设定log4j的日志记录级别,类似于hadoop daemonlog

/stacks

所有线程的stack trace,对于debug很有帮助

/jmx

服务端的Metrics,以JSON格式输出。

/jmx?qry=Hadoop:*会返回所有hadoop相关指标。

/jmx?get=MXBeanName::AttributeName 查询指定bean指定属性的值,例如/jmx?get=Hadoop:service=NameNode,name=NameNodeInfo::ClusterId会返回ClusterId。

这个请求的处理类:org.apache.hadoop.jmx.JMXJsonServlet

而特定的Daemon又有特定的URL路径特定相应信息。

NameNode:http://:50070/

/dfshealth.jsp

HDFS信息页面,其中有链接可以查看文件系统

/dfsnodelist.jsp?whatNodes=(DEAD|LIVE)

显示DEAD或LIVE状态的datanode

/fsck

运行fsck命令,不推荐在集群繁忙时使用!

DataNode:http://:50075/

/blockScannerReport

每个datanode都会指定间隔验证块信息

原文地址:https://www.cnblogs.com/qingfengyiran-top1/p/11316948.html

时间: 2024-08-07 13:31:09

Hadoop常用端口和定义方法的相关文章

Hadoop.2.x_常用端口及定义方法(转)

组件   节点 默认端口 配置 用途说明 HDFS DataNode 50010 dfs.datanode.address datanode服务端口,用于数据传输 HDFS DataNode 50075 dfs.datanode.http.address http服务的端口 HDFS DataNode 50475 dfs.datanode.https.address https服务的端口 HDFS DataNode 50020 dfs.datanode.ipc.address ipc服务的端口

hadoop2.x常用端口及定义方法

Hadoop集群的各部分一般都会使用到多个端口,有些是daemon之间进行交互之用,有些是用于RPC访问以及HTTP访问.而随着Hadoop周边组件的增多,完全记不住哪个端口对应哪个应用,特收集记录如此,以便查询. 这里包含我们使用到的组件:HDFS, YARN, HBase, Hive, ZooKeeper: 组件 节点 默认端口 配置 用途说明 HDFS DataNode 50010 dfs.datanode.address datanode服务端口,用于数据传输 HDFS DataNode

『转载』hadoop2.x常用端口、定义方法及默认端口

1.问题导读 DataNode的http服务的端口.ipc服务的端口分别是哪个? NameNode的http服务的端口.ipc服务的端口分别是哪个? journalnode的http服务的端口.ipc服务的端口分别是哪个? ResourceManager的http服务端口是哪个? NodeManager的http服务端口是哪个? Master的http服务的端口.ipc服务的端口分别是哪个? 3888是谁的端口,用来做什么? Hadoop集群的各部分一般都会使用到多个端口,有些是daemon之间

大数据_学习_01_Hadoop 2.x及hbase常用端口及查看方法

二.参考资料 1.Hadoop 2.x常用端口及查看方法 原文地址:https://www.cnblogs.com/shirui/p/8623474.html

Hadoop 2.x常用端口及查看方法

一.常用端口 组件 节点 默认端口 配置 用途说明 HDFS DataNode 50010 dfs.datanode.address datanode服务端口,用于数据传输 HDFS DataNode 50075 dfs.datanode.http.address http服务的端口 HDFS DataNode 50475 dfs.datanode.https.address https服务的端口 HDFS DataNode 50020 dfs.datanode.ipc.address ipc服

Hadoop常用端口

常用端口设置 1.1HDFS端口 参数 描述 默认 配置文件 示例 fs.default.name namenode RPC交互端口 8020 core-site.xml liaozhongmin:8020 dfs.http.address  NameNode web管理端口 50070 hdfs- site.xml liaozhongmin:50070 dfs.datanode.address datanode 控制端口 50010  hdfs -site.xml liaozhongmin:5

无法访问hadoop yarn8088端口的解决方法

1.检查是否正确的启动了resourcemanager服务 若是没有启动,请检查yarn-site-xml配置 2.若是启动了 1.检查客户机和虚拟机之间是否能够相互ping通 2.检查虚拟机防火墙是否关闭 3.排查 1.首先,各个虚拟机和客户端之前都能ping通,虚拟机都能上外网,说明网络没有问题. 2.各个虚拟机自己的防火墙已经关闭. 3.在外网可以连接22端口和50070端口 4.解决 通过命令:netstat -tpnl | grep java  发现 那么通过在本机通过127.0.0.

Hadoop之——计算机网络端口的定义

转载请注明出处:http://blog.csdn.net/l1028386804/article/details/45821877 端口介绍 本文所述端口都是逻辑意义上的端口,是指TCP/IP协议中的端口,端口号的范围从0到65535,比如用于浏览网页服务的80端口,用于FTP服务的21端口等等. 我们这里将要介绍的就是逻辑意义上的端口. A.按端口号分布划分 (1)知名端口(Well-Known Ports) 知名端口即众所周知的端口号,范围从0到1023,这些端口号一般固定分配给一些服务.

数组的定义方法与常用操作

---恢复内容开始--- 一   定义方法 1:  int[ ] a ={1, 2,3,4,5}; 2:  int[ ]  a = new int [5]; 3:  int[ ]  a = new int [ ]{1,2,3,4,5}; 二    数组在内存中的分配原理 int[ ] a={1,2,3,4,5},变量a是引用,储存数组的地址,十六进制数,并指向该地址代表的空间. 三    访问数组 以索引形式访问,System.out.println(a[0]); 四 越界: 索引不存在,超出数