集群间数据迁移报错

[[email protected] ~]$ hadoop distcp -update /user/hive/warehouse/cslc.db/ hdfs://172.26.xx.xx:8020/user/hive/warehouse/cslc.db/
18/12/24 10:27:06 ERROR tools.DistCp: Invalid arguments:
org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.ipc.StandbyException): Operation category READ is not supported in state standby. Visit https://s.apache.org/sbnn-error

原因:

目标集群的节点是namenode 的standby节点,更换为active节点即可。

原文地址:https://www.cnblogs.com/students/p/10167248.html

时间: 2024-10-10 19:47:31

集群间数据迁移报错的相关文章

Hadoop集群间数据拷贝

有时候,我们需要做Hadoop集群迁移时,要把大量存储在Hadoop集群上的数据也一并迁移过去.有2种方法可以使用: 1. old hadoop cluster--->old local disks---->transmission---->new local disks----->new hadoop cluster 2. old hadoop cluster---->mapreduce--->new hadoop cluster 很显然第一种方法很不靠谱,我们采用第

redis 集群安装时的报错的解决办法

1.执行 redis-trib.rb create 时报错 这个是由于没有安装redis导致的 安装 ruby 和 rubygems(注意:需要 ruby 的版本在 1.8.7 以上) # yum install ruby rubygems 检查 ruby 版本: # ruby -v ruby 1.8.7 (2013-06-27 patchlevel 374) [x86_64-linux] gem安装 redis ruby 接口: # gem install redis Successfully

ABP框架数据迁移报错

问题描述:将项目从TFS载下来  然后敲update-database 进行数据迁移 提示:Update-Database : 无法将"Update-Database"项识别为 cmdlet.函数.脚本文件或可运行程序的名称.请检查名称的拼写,如果包括路径,请确保路径正确,然后重试.  其实无论敲什么命令都是这个提示 解决方案:初始化包

HDFS集群启动start-dfs.sh报错

[[email protected] sbin]# start-dfs.sh Starting namenodes on [master] master: Error: JAVA_HOME is not set and could not be found. The authenticity of host 'localhost (::1)' can't be established. ECDSA key fingerprint is e8:5a:7d:5c:e3:f7:57:4a:96:c2:

hbase 学习(十二)集群间备份原理

集群建备份,它是master/slaves结构式的备份,由master推送,这样更容易跟踪现在备份到哪里了,况且region server是都有自己的WAL 和HLog日志,它就像mysql的主从备份结构一样,只有一个日志来跟踪.一个master集群可以向多个slave集群推送,收到推送的集群会覆盖它本地的edits日志. 这个备份操作是异步的,这意味着,有时候他们的连接可能是断开的,master的变化不会马上反应到slave当中.备份个格式在设计上是和mysql的statement-based

Django项目与mysql交互进行数据迁移时报错:AttributeError: 'str' object has no attribute 'decode'

问题描述 Django项目启动,当我们执行命令 python manage.py makemigrations 出现如下错误: File "/usr/local/lib/python3.6/dist-packages/django/db/backends/mysql/operations.py", line 147, in last_executed_query query = query.decode(errors='replace') AttributeError: 'str' o

Xtrabackup恢复mysql数据时候报错:Original data directory is not empty!

使用Xtrabackup恢复mysql数据时候报错:Original data directory is not empty! at /usr/bin/innobackupex line 568. 网上普遍只说了引起这种想象的两种原因,还有第三种原因是我遇到的: 1.恢复备份文件要保证mysql的data目录为空,否则会报错,解决办法:  # /etc/init.d/mysqld stop # cd /usr/local/mysql # cp -rf data{,.bak} # rm -rf .

Jsoncpp写“鱘”的json数据,报错。

最近在用Json::FastWriter生成json数据时,发现一个问题.含有"鱘"字的json字段会多出一个斜杠,不知道是不是编码的问题. C++要使用JSON来解析数据,一般采用jsoncpp. 网站:http://sourceforge.net/projects/jsoncpp/ 经过json校验http://jsonlint.com/,报错 很是郁闷.现在只能从生成的字符串想办法了. 遍历生成的字符串,删除"\". 生成json数据成功! Jsoncpp写&

数据导入报错:Got a packet bigger than‘max_allowed_packet’bytes的问题

数据导入报错:Got a packet bigger than‘max_allowed_packet’bytes的问题 2个解决方法: 1.临时修改:mysql>set global max_allowed_packet=524288000;修改 #512M 2.修改my.cnf,需重启mysql. 在 [MySQLd] 部分添加一句(如果存在,调整其值就可以): max_allowed_packet=10M