ambari diskusage: data unavaliable

今天在查看ambari集群时,发现有一台服务器的磁盘统计没有数据,显示:ambari diskusage:data unavaliable. 不知道是什么原因,去对应的机器上,在/var/log/ambari-metrics-monitor目录下,查看日志。tail -f ambari-metrics-monitor.out,发现报如下错误:

OSError: [Errno 13] Permission denied: ‘/run/media/root/CentOS 7 x86_64‘

意思是没有权限查看该文件,该文件实际对应于/dev/sr0,就是机器的光驱。由于机器是虚拟机,默认光驱加载了centos7的镜像文件。而光驱是只读文件,所以ambari的python脚本才统计时,报错。导致整个磁盘的监控都无法统计。通过

umount /dev/sr0 卸载光盘,就好了。

时间: 2024-10-13 22:19:02

ambari diskusage: data unavaliable的相关文章

100 open source Big Data architecture papers for data professionals

zhuan :https://www.linkedin.com/pulse/100-open-source-big-data-architecture-papers-anil-madan Big Data technology has been extremely disruptive with open source playing a dominant role in shaping its evolution. While on one hand it has been disruptiv

ambari安装过程中的问题汇总

今天重新安装ambari过程中,遇到了几个问题,耗费了我很长时间,在此记录一下 ambari重新安装可参考我之前的一篇随笔 http://www.cnblogs.com/6tian/p/4097401.html 遇到的问题一: 此问题是在安装第二步,注册主机时遇到的('ERROR 2015-02-06 20:09:43,441 NetUtil.py:56 - [Errno 1] _ssl.c:492: error:100AE081:elliptic curve routines:EC_GROUP

Spark性能优化之道——解决Spark数据倾斜(Data Skew)的N种姿势

原创文章,转载请务必将下面这段话置于文章开头处.本文转发自技术世界,原文链接 http://www.jasongj.com/spark/skew/ 摘要 本文结合实例详细阐明了Spark数据倾斜的几种场景以及对应的解决方案,包括避免数据源倾斜,调整并行度,使用自定义Partitioner,使用Map侧Join代替Reduce侧Join,给倾斜Key加上随机前缀等. 为何要处理数据倾斜(Data Skew) 什么是数据倾斜 对Spark/Hadoop这样的大数据系统来讲,数据量大并不可怕,可怕的是

Ambari postpresql 无法启动 FATAL: no pg_hba.conf entry

Caused by: org.postgresql.util.PSQLException: FATAL: no pg_hba.conf entry for host "127.0.0.1", user "ambari", database "ambari", SSL off at org.postgresql.core.v3.ConnectionFactoryImpl.doAuthentication(ConnectionFactoryImpl.

ambari之hadoop的安装

前期环境准备: 三台机器:192.168.1.25(1-3):251-ambari_master:252-ambari_slare1:253-ambari_slare2 机器配置,系统环境 使用虚拟机,系统rhel6.6 ; centos6.5 所有机器都需要执行一下设置(我已经设置好了,可以看一下): 1.打开最大文件数设置 [[email protected]_slare2 ~]# ulimit -Hn10000 [[email protected]_slare2 ~]# ulimit -S

2、ambari搭建HDP集群

一.平台环境 操作系统:CentOS release 6.5 (Final) Java版本:jdk1.8.0_60 Ambari版本:2.2.1.0 HDP版本:2.4.0 MySQL版本:MySQL-5.6.25-1 用户权限:cent,sudo无密码 主机IP:192.168.234.145 安装包路径:~/packages 二.环境准备1. 增加系统打开文件数和进程数 在每台服务器命令行执行: ulimit -n 显示当前可以打开的最大文件数 sudo vim /etc/security/

ambari本地源自动化安装hortonworks hadoop(转)

原文地址:http://blog.chinaunix.net/xmlrpc.php?r=blog/article&uid=26230811&id=4023821 环境配置 Hostname IP OS Ambari 172.16.235.164 Centos X64 base install Maste.hadoop 172.16.235.165 Centos X64 base install Datanode1.hadoop 172.16.235.166 Centos X64 base

ambari 搭建hadoop大数据平台系列1-概述

最近要为第三方搭建一套大数据平台,中间先进行了虚拟机版本,测试通过后,进行了物理机版本的生产环境,网上关于ambari 的文章并不多,但好在ambari 官方文档质量略高,社区比较活跃,便整理该系列的文档,将埋掉的坑抛出来,帮助小伙伴们更加快速的搭建自己的hadoop 平台. 分三个部分: 1. 为什么选择ambari 来搭建 说到ambari, 主要的对手cloudrea manager ,大家比较熟悉,至于各自长短,优势劣汰,大家自己斟酌选择啦. Cloudera Manager is di

ambari 搭建hadoop大数据平台系列2-客户机配置

本案例搭建的环境介绍如下:Ambari 2.4.2 + HDP 2.5 (hadoop 2.7 :hive 1.2 :Tez :Spark 2.0)+jdk1.8.25 +centos7.0,这里首先要关注些注意事项,至于为什么会一一说明. 第一部分:注意事项: 版本必须低于7.2 selinux 必须关闭 firewalld 必须关闭 127.0.0.1  hosts该条记录删除 本地仓库必须搭建 root 账户ssh 启用 指定hdfs data 目录 安装jdk1.8.0 所有机器时间必须