hadoop常用的端口配置

常用的端口配置

2.1  HDFS端口


参数


描述


默认


配置文件


例子值


fs.default.name namenode


namenode RPC交互端口


8020


core-site.xml


hdfs://master:8020/


dfs.http.address


NameNode web管理端口


50070


hdfs- site.xml


0.0.0.0:50070


dfs.datanode.address


datanode 控制端口


50010


hdfs -site.xml


0.0.0.0:50010


dfs.datanode.ipc.address


datanode的RPC服务器地址和端口


50020


hdfs-site.xml


0.0.0.0:50020


dfs.datanode.http.address


datanode的HTTP服务器和端口


50075


hdfs-site.xml


0.0.0.0:50075

2.2  MR端口


参数


描述


默认


配置文件


例子值


mapred.job.tracker


job-tracker交互端口


8021


mapred-site.xml


hdfs://master:8021/


job


tracker的web管理端口


50030


mapred-site.xml


0.0.0.0:50030


mapred.task.tracker.http.address


task-tracker的HTTP端口


50060


mapred-site.xml


0.0.0.0:50060

2.3  其它端口


参数


描述


默认


配置文件


例子值


dfs.secondary.http.address


secondary NameNode web管理端口


50090


hdfs-site.xml


0.0.0.0:50090


 

原文地址:https://www.cnblogs.com/zhxiaoxiao/p/10207463.html

时间: 2024-08-29 16:28:15

hadoop常用的端口配置的相关文章

hadoop 常用配置

hadoop 常用配置项——转载: core-site.xml  name value  Description   fs.default.name hdfs://hadoopmaster:9000 定义HadoopMaster的URI和端口  fs.checkpoint.dir /opt/data/hadoop1/hdfs/namesecondary1 定义hadoop的name备份的路径,官方文档说是读取这个,写入dfs.name.dir  fs.checkpoint.period 1800

Hadoop常用端口和定义方法

Hadoop集群的各部分一般都会使用到多个端口,有些是daemon之间进行交互之用,有些是用于RPC访问以及HTTP访问.而随着Hadoop周边组件的增多,完全记不住哪个端口对应哪个应用,特收集记录如此,以便查询. 这里包含我们使用到的组件:HDFS, YARN, HBase, Hive, ZooKeeper: 组件 节点 默认端口 配置 用途说明 HDFS DataNode 50010 dfs.datanode.address datanode服务端口,用于数据传输 HDFS DataNode

hadoop 常用配置项【转】

hadoop 常用配置项[转] core-site.xml  name value  Description   fs.default.name hdfs://hadoopmaster:9000 定义HadoopMaster的URI和端口  fs.checkpoint.dir /opt/data/hadoop1/hdfs/namesecondary1 定义hadoop的name备份的路径,官方文档说是读取这个,写入dfs.name.dir  fs.checkpoint.period 1800 定

Hadoop生产环境的配置

生产环境的搭建 主机规划 这里我们使用5 台主机来配置Hadoop集群. djt11/192.168.3.11 djt17/192.168.3.12 djt13/192.168.3.13 djt14/192.168.3.14 djt15/192.168.3.15 namenode 是 是 否 否 否 datanode 否 否 是 是 是 resourcemanager 是 是 否 否 否 journalnode 是 是 是 是 是 zookeeper 是 是 是 是 是 Journalnode和

[Hadoop]基于Eclipse的Hadoop应用开发环境配置

安装Eclipse 下载Eclipse(点击进入下载),解压安装.我安装在/usr/local/software/目录下. 在eclipse上安装hadoop插件 下载hadoop插件(点击进入下载) 把插件放到eclipse/plugins目录下. 重启eclipse,配置hadoop installation directory 如果安装插件成功,打开Window–>Preferens,你会发现Hadoop Map/Reduce选项,在这个选项里你需要配置Hadoop installatio

Struts2 常用的常量配置

在struts2-core-2.1.8.1.jar的org.apache.struts2包下面的default.properties资源文件里可以查到常用的常量配置,这些不用刻意的记住:忘记的时候可以查询.总结长用的的常量配置如下面: <!-- 设置url请求后缀 --> <constant name="struts.action.extension" value="do,action,html,htm"></constant>

常用的端口

常用的端口 端口号码 / 层 名称 注释 1 tcpmux TCP 端口服务多路复用 5 rje 远程作业入口 7 echo Echo 服务 9 discard 用于连接测试的空服务 11 systat 用于列举连接了的端口的系统状态 13 daytime 给请求主机发送日期和时间 17 qotd 给连接了的主机发送每日格言 18 msp 消息发送协议 19 chargen 字符生成服务:发送无止境的字符流 20 ftp-data FTP 数据端口 21 ftp 文件传输协议(FTP)端口:有时

Hadoop集群安装配置教程_Hadoop2.6.0_Ubuntu/CentOS

摘自:http://www.powerxing.com/install-hadoop-cluster/ 本教程讲述如何配置 Hadoop 集群,默认读者已经掌握了 Hadoop 的单机伪分布式配置,否则请先查看Hadoop安装教程_单机/伪分布式配置 或 CentOS安装Hadoop_单机/伪分布式配置. 本教程适合于原生 Hadoop 2,包括 Hadoop 2.6.0, Hadoop 2.7.1 等版本,主要参考了官方安装教程,步骤详细,辅以适当说明,保证按照步骤来,都能顺利安装并运行 Ha

Hadoop单机模式的配置与安装

Hadoop单机模式的配置与安装 版权所有 前言: 由于Hadoop属于java程序,所以,安装Hadoop之前需要先安装jdk. 对于hadoop0.20.2的单机模式安装就需要在一个节点(一台主机)上运行5个节点. 分别是: JobTracker:负责Hadoop的Job任务分发和管理. TaskTracker:负责在单个节点上执行MapReduce任务. 对于Hadoop里面的HDFS的节点又有 NameNode:主节点,负责管理文件存储的名称节点 DateNode:数据节点,负责具体的文