在Hadoop监控页面怎样查看Hive的完整SQL

如图。这里仅仅能看到简单的一段SQL。差点儿看不出详细在运行什么任务。

此时能够点开一个application。点击Tracking URL:
ApplicationMaster

进入到MapReduce Job job_1409xxxx,Job页面

点击左側的Configuration

这里有此Job相应的全部參数。在 右上角的搜索框中输入string,

当中key为 hive.query.string相应的value值就是完整的hive SQL语。

如图

之前并没有好好看过Hadoop监控页面。如今发现这里事实上也是值得研究的。

时间: 2024-09-30 10:47:01

在Hadoop监控页面怎样查看Hive的完整SQL的相关文章

在Hadoop监控页面如何查看Hive的完整SQL

如图,这里只能看到简单的一段SQL,几乎看不出具体在执行什么任务. 此时可以点开一个application,点击Tracking URL: ApplicationMaster 进入到MapReduce Job job_1409xxxx,Job页面 点击左侧的Configuration 这里有此Job对应的所有参数,在 右上角的搜索框中输入string, 其中key为 hive.query.string对应的value值就是完整的hive SQL语. 如图 之前并没有好好看过Hadoop监控页面,

【hadoop】16、学习hive操作语句

学习DDL语句 创建对象的语句 Create/Drop/Alter Database Create Database CREATE (DATABASE|SCHEMA) [IF NOT EXISTS] database_name [COMMENT database_comment] [LOCATION hdfs_path] [WITH DBPROPERTIES (property_name=property_value, ...)]; Drop Database DROP (DATABASE|SC

海康威视频监控设备Web查看系统(三):Web篇

声明:本系列文章只提供交流与学习使用.文章中所有涉及到海康威视设备的SDK均可在海康威视官方网站下载得到.文章中所有除官方SDK以为的代码均可随意使用,任何涉及到海康威视公司利益的非正常使用由使用者自己负责,与本人无关. 前言: <海康威视频监控设备Web查看系统(一):概要篇> <海康威视频监控设备Web查看系统(二):服务器篇> 本文是本系列三篇文章中的最后一篇,在前两篇文章中,介绍了开发海康监控的方案及中转服务器的实现,本篇文章介绍Web端的功能实现,经过本篇文章中的项目开发

海康威视频监控设备Web查看系统(二):服务器篇

声明:本系列文章只提供交流与学习使用.文章中所有涉及到海康威视设备的SDK均可在海康威视官方网站下载得到.文章中所有除官方SDK意外的代码均可随意使用,任何涉及到海康威视公司利益的非正常使用由使用者自己负责,与本人无关. 前言: 上一篇文章<海康威视频监控设备Web查看系统(一):概要篇>笼统的介绍了关于海康视频中转方案的思路,本文将一步步实现方案中的视频中转服务端.文中会涉及到一些.net socket处理和基础的多线程操作.我用的是SDK版本是SDK_Win32_V4.2.8.1 .大家根

通过表名和时间查看hive分区表的数据

[linux-]$  /home/script/listHive.py  ta_name_1002_user_search_log_day  20180626 #!/usr/bin/env python # -*- coding: utf-8 -*- ########################################## # 通过表名和时间查看hive分区表的数据 # len(sys.argv)--输入参数个数 # sys.argv[1] -- 表名 # sys.argv[2] -

Spark集群框架搭建【VM15+CentOS7+Hadoop+Scala+Spark+Zookeeper+HBase+Hive】

目录 1 目的 2 准备工作 3 安装过程 3.1 在虚拟机中安装CentOS7 3.1.1 虚拟机设置 3.1.2 安装Linux系统 3.2 JAVA环境 3.2.1 卸载Linux自带的jdk 3.2.2 下载并安装最新版本的jdk 3.2.3 环境变量设置 3.3 SSH免密登陆 3.3.1 准备工作 3.3.2 设置免密登陆 3.4 Hadoop2.7.2安装及集群配置 3.4.1 Hadoop安装 3.4.2 伪分布式集群配置 3.4.3 启动hadoop 3.5 Spark安装及环

基于hadoop的数据仓库工具:Hive概述

Hive是基于Hadoop的一个数据仓库工具,可以将结构化的数据文件映射为一张数据库表,并提供完整的sql查询功能,可以将sql语句转换为MapReduce任务进行运行.其优点是学习成本低,可以通过类SQL语句快速实现简单的MapReduce统计,不必开发专门的MapReduce应用,十分适合数据仓库的统计分析. Hive是建立在 Hadoop 上的数据仓库基础构架.它提供了一系列的工具,可以用来进行数据提取转化加载(ETL),这是一种可以存储.查询和分析存储在 Hadoop 中的大规模数据的机

修改rabbitmq Web UI 监控页面的端口

在前几天工作中遇到一个问题,部署服务器,需要用rabbitmq自带的一个web UI监控组件,但是15672的端口没有对外映射.尝试了几种办法.开始修改rabbitmq.config,rabbitmq-ebv.config,总是不成功,因为修改的是rabbitmq-server的启动端口号,从外面访问的是web UI组件启动的端口号,两个是不一样的.然后尝试的rabbitmqadmin,因为web UI 监控页面也是调用的httpapi ,rabbitmqadmin是从官网下载一个文本文件赋予可

查看hive版本

hive没有提供hive --version这种方式查看版本好,所以要找到hive所在目录,然后查看jar包的版本号, 比如: # ls /usr/local/hive/lib/ antlr-2.7.7.jar datanucleus-core-2.0.3.jar hive-jdbc-0.10.0.jar jline-1.0.jar antlr-runtime-3.0.1.jar datanucleus-enhancer-2.0.3.jar hive-metastore-0.10.0.jar j