hadoop+hbase+zookeeper+spark+phoenix相关实施报错处理

排错日志:

    • 解决办法:可能是修改 机器名导致的,修改hosts,写入hostname和IP,然后,try it agin!
    • 解决办法:
    • 当引入hadoop-common-2.2.0.jar包进行二次开发,比如读写HDFS文件时,初次运行报错。

      java.io.IOException: No FileSystem for scheme: hdfs

      at org.apache.hadoop.fs.FileSystem.getFileSystemClass(FileSystem.java:2421)

      at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:2428)

      at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:88)

      at org.apache.hadoop.fs.FileSystem$Cache.getInternal(FileSystem.java:2467)

      at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:2449)

      at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:367)

      at FileCopyToHdfs.readFromHdfs(FileCopyToHdfs.java:65)

      at FileCopyToHdfs.main(FileCopyToHdfs.java:26)

      这是因为该包下默认的core-default.xml没有配置如下属性:

      <property>

      <name>fs.hdfs.impl</name>

      <value>org.apache.hadoop.hdfs.DistributedFileSystem</value>

      <description>The FileSystem for hdfs: uris.</description>

      < /property>

      添加完后,问题解决。

      建议下载hadoop-2.2.0源码,在源码修改core-default.xml文件后再编译打包,再在二次开发的工程引入新的jar包。

    • http://www.cnblogs.com/tangtianfly/p/3491133.html
    • http://www.cnblogs.com/tangtianfly/p/3491133.html
    • http://blog.csdn.net/u013281331/article/details/17992077
    • 上属性指定fs.hdfs.impl的实现类。
    • 解决办法:
    • 时间不同步
    • su root
    • ntpdate 133.100.11.8
    • cd /usr/local/hbase/bin/
    • ./hbase-daemon.sh start regionserver
    • 解决办法:
    • 打开hdfs-site.xml里配置的datanode和namenode对应的目录,分别打开current文件夹里的VERSION,可以看到clusterID项正如日志里记录的一样,确实不一致,修改datanode里VERSION文件的clusterID 与namenode里的一致,再重新启动dfs(执行start-dfs.sh)再执行jps命令可以看到datanode已正常启动。

      出现该问题的原因:在第一次格式化dfs后,启动并使用了hadoop,后来又重新执行了格式化命令(hdfs namenode -format),这时namenode的clusterID会重新生成,而datanode的clusterID 保持不变。

    • 解决办法:
    • 1.检查防火墙和selinux

      2.hosts里不要有127.0.0.1指向机器名的解析存在,如“127.0.0.1 localhost”。

    • 解决办法:
    • 是因为hbase和hadoop里都有这个jar包,选择其一移除即可。
    • 解决办法:
    • 原来是Hadoop在刚启动的时候,还处在安全模式造成的。
      [[email protected] hadoop-0.20.2]$ bin/hadoop dfsadmin -safemode get
      Safe mode is ON
      [[email protected] hadoop-0.20.2]$

        可等Hadoop退出安全模式后再执行HBase命令,或者手动退出Hadoop的安全模式

      [[email protected] hadoop-0.20.2]$ bin/hadoop dfsadmin -safemode leaveSafe mode is OFF
      [[email protected] hadoop-0.20.2]$

      cd /usr/local/hadoop2/bin

      ./hadoop dfsadmin -safemode leave
    • 解决办法:
    • <property>

      <name>zookeeper.znode.parent</name>

      <value>/usr/local/hbase/hbase_tmp/hbase</value>

      </property>

    • 解决办法:
    • ./stop-all.sh

      hadoop namenode -format

      rm -rf /home/hadoop/tmp/dfs

      ./start-all.sh

      rm -rf /home/hadoop/tmp

      rm -rf /home/hadoop/dfs_data

      rm -rf /home/hadoop/pids

      rm -rf /home/hadoop/dfs_name

      cd /usr/local/hadoop2/bin/

      ./hadoop namenode -format

    • closing ipc connection to master.kaiser.com/192.168.0.60:8020:  Connection refused

      Call From master.kaiser.com/192.168.0.60 to master.kaiser.com:8020 failed on connection exception: java.net.ConnectException:Connection refused

      log:

      2014-09-03 13:50:39,029 INFO org.apache.hadoop.hdfs.server.common.Storage: Lock on /home/hadoop/dfs_name/in_use.lock acquired by nodename [email protected]

      2014-09-03 13:50:39,032 WARN org.apache.hadoop.hdfs.server.namenode.FSNamesystem: Encountered exception loading fsimage

      java.io.IOException: NameNode is not formatted.

      2014-09-03 13:50:39,141 FATAL org.apache.hadoop.hdfs.server.namenode.NameNode: Exception in namenode join

      java.io.IOException: NameNode is not formatted.

    • hadoop.hbase.MasterNotRunningException: The node /hbase is not in ZooKeeper. It should have been written by the master.Check the value configured in ‘zookeeper.znode.parent‘. There could be a mismatch with the one configured in the master.
    • 2013-04-13 17:13:17,374 INFO org.apache.hadoop.hbase.util.FSUtils: Waiting for dfs to exit safe mode...
      2013-04-13 17:13:27,377 INFO org.apache.hadoop.hbase.util.FSUtils: Waiting for dfs to exit safe mode...
      2013-04-13 17:13:37,386 INFO org.apache.hadoop.hbase.util.FSUtils: Waiting for dfs to exit safe mode...
      2013-04-13 17:13:47,393 INFO org.apache.hadoop.hbase.util.FSUtils: Waiting for dfs to exit safe mode...
      2013-04-13 17:13:57,395 INFO org.apache.hadoop.hbase.util.FSUtils: Waiting for dfs to exit safe mode...
      2013-04-13 17:14:07,409 INFO org.apache.hadoop.hbase.util.FSUtils: Waiting for dfs to exit safe mode...
    • 执行hbase程序orshell命令出现如下提示(./hbase shell):

      SLF4J: Class path contains multiple SLF4J bindings.

      SLF4J: Found binding in [jar:file:/usr/local/hbase-0.92.1/lib/slf4j-log4j12-1.5.8.jar!/org/slf4j/impl/StaticLoggerBinder.class]

      SLF4J: Found binding in [jar:file:/usr/local/hadoop2-1.0.3/lib/slf4j-log4j12-1.4.3.jar!/org/slf4j/impl/StaticLoggerBinder.class]

      SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.

    • WARN org.apache.hadoop.hdfs.server.datanode.DataNode: Problem connecting to server: tmaster.kaiser.com/192.168.0.63:9000
    • 2014-06-18 20:34:59,622 FATAL org.apache.hadoop.hdfs.server.datanode.DataNode: Initialization failed for block pool Block pool <registering> (Datanode Uuid unassigned) service to localhost/127.0.0.1:9000

      java.io.IOException: Incompatible clusterIDs in /usr/local/hadoop/hdfs/data: namenode clusterID = CID-af6f15aa-efdd-479b-bf55-77270058e4f7; datanode clusterID = CID-736d1968-8fd1-4bc4-afef-5c72354c39ce

      at org.apache.hadoop.hdfs.server.datanode.DataStorage.doTransition(DataStorage.java:472)

      at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:225)

      at org.apache.hadoop.hdfs.server.datanode.DataStorage.recoverTransitionRead(DataStorage.java:249)

      at org.apache.hadoop.hdfs.server.datanode.DataNode.initStorage(DataNode.java:929)

      at org.apache.hadoop.hdfs.server.datanode.DataNode.initBlockPool(DataNode.java:900)

      at org.apache.hadoop.hdfs.server.datanode.BPOfferService.verifyAndSetNamespaceInfo(BPOfferService.java:274)

      at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.connectToNNAndHandshake(BPServiceActor.java:220)

      at org.apache.hadoop.hdfs.server.datanode.BPServiceActor.run(BPServiceActor.java:815)

      at java.lang.Thread.run(Thread.java:744)

      从日志中可以看出,原因是因为datanode的clusterID 和 namenode的clusterID 不匹配。

    • regionserver.HRegionServer: Failed deleting my ephemeral node
    • java.io.IOException: No FileSystem for scheme: hdfs
    • hadoop:pache.hadoop.hdfs.server.blockmanagement.DatanodeManager: Unresolved datanode registration: hostname cannot be resolved

      Hbase:Will not attempt to authenticate using SASL (unknown error)

时间: 2024-10-13 06:32:50

hadoop+hbase+zookeeper+spark+phoenix相关实施报错处理的相关文章

Hadoop,HBase,Zookeeper源码编译并导入eclipse

基本理念:尽可能的参考官方英文文档 Hadoop:  http://wiki.apache.org/hadoop/FrontPage HBase:  http://hbase.apache.org/book.html Zookeeper:  https://cwiki.apache.org/confluence/display/ZOOKEEPER/Index 环境介绍 Ubuntu 14.04LTS, 32位 接下来则按照Hadoop,HBase,Zookeeper顺序来进行源码编译,建立文件夹

[推荐]Hadoop+HBase+Zookeeper集群的配置

Hadoop+HBase+Zookeeper集群的配置  http://wenku.baidu.com/view/991258e881c758f5f61f67cc.html?re=view HDFS+MapReduce+Hive+HBase十分钟快速入门   http://wenku.baidu.com/view/7db2fcd276eeaeaad1f33055.html Hadoop+Zookeeper+HBase部署指南  http://wenku.baidu.com/view/02e4ad

构建Hadoop+Hbase+ZooKeeper分布式存储

前言* Hadoop是Apache开源组织的一个分布式计算开源框架,在很多大型网站上都已经得到了应用,如亚马逊.Facebook和Yahoo等等.对于我来说,最近的一个使用点就是服务集成平台的日志分析.服务集成平台的日志量将会很大,而这也正好符合了分布式计算的适用场景(日志分析和索引建立就是两大应用场景). 今天我们来实际搭建一下Hadoop 2.2.0版,实战环境为目前主流服务器操作系统CentOS 6.5系统. 一.实战环境 系统版本:CentOS 6.5 x86_64 JAVA版本:JDK

学习搭建Hadoop+HBase+ZooKeeper分布式集群环境

一.环境配置 由于集群至少需要三台服务器,我就拿上次做的MongoDB Master, Slave, Arbiter环境来做Hadoop集群.服务器还是ibmcloud 免费提供的.其中Arbiter在这里做的也是slave的角色. Hostname IP  Server Type Master 192.168.0.28 Centos6.2 Slave 192.168.0.29 Ubuntu14.04 Arbiter 192.168.0.30 Ubuntu14.04 配置三台机器的Master

phoenix连接hbase数据库,创建二级索引报错:Error: org.apache.phoenix.exception.PhoenixIOException: Failed after attempts=36, exceptions: Tue Mar 06 10:32:02 CST 2018, null, java.net.SocketTimeoutException: callTimeou

环境描述: 操作系统版本:CentOS release 6.5 (Final) 内核版本:2.6.32-431.el6.x86_64 phoenix版本:phoenix-4.10.0 hbase版本:hbase-1.2.6 表SYNC_BUSINESS_INFO_BYDAY数据库量:990万+ 问题描述: 通过phoenix客户端连接hbase数据库,创建二级索引时,报下面的错误: 0: jdbc:phoenix:host-10-191-5-226> create index SYNC_BUSI

Hadoop搭建HA环境(Hadoop+HBase+Zookeeper)注意事项

搭建HA的环境,在配置完成之后,进行集群格式化时,需要注意,格式化的顺序是:先启动所有的jourlnode,然后在namenode1上格式化namenode,启动namenode,检查namenode是否能起来.然后要关闭整个集群,再启动所有的Zookeeper,最后在namenode1上初始化Zookeeper. PS:最好不要使用shell脚本去启动Zookeeper,若一定要用,需要在命令:zkServer.sh start后使用参数.否则会报错:nohup: failed to run

创建工程导入相关类库报错

在这里我是: 项目用到的相关类库和工程:a.Android-PullToRefresh-master: 强大的下拉刷新类库b.android-support-v7-appcompat: Android系统提供的v7包,提供了ActionBar等高级的类 导入类库报错:[2015-07-19 11:33:14 - 谷歌市场xian1] Jar mismatch! Fix your dependencies[2015-07-19 11:33:33 - 谷歌市场xian1] Found 2 versi

启动Hadoop HA Hbase zookeeper spark

备注:我的公钥文件在/home/hxsyl/.ssh下不在/root/hxsyl下,通过 find / -name id_rsa 查找 1.分别在每个机器上运行命令zkServer.sh start或者在$ZOOKEEPER_HOME/bin目录下运行./zkServer.sh start命令.然后可以通过命令jps来查看Zookeeper启动的进程QuorumPeerMain. 可通过zkServer.sh status命令来查看Zookeeper状态.正常是机器中只有一个leader,其他的

【Todo】【转载】全栈工程师-Hadoop, HBase, Hive, Spark

学习参考这篇文章: http://www.shareditor.com/blogshow/?blogId=96 机器学习.数据挖掘等各种大数据处理都离不开各种开源分布式系统, hadoop用于分布式存储和map-reduce计算, spark用于分布式机器学习, hive是分布式数据库, hbase是分布式kv系统, 看似互不相关的他们却都是基于相同的hdfs存储和yarn资源管理, 本文通过全套部署方法来让大家深入系统内部以充分理解分布式系统架构和他们之间的关系.