Hive Shell常用操作

1.本文命令的两种模式:

  交互模式,即hive的shell环境:hive > ….

  非交互模式:普通的Linux命令模式:%.....

2.Hive Shell常用操作

  1) hive -e:从命令行执行指定的HQL,不需要分号

    % hive -e ‘select * from dummy‘ > a.txt

  2) hive –f: 执行HQL脚本

    % hive -f /home/my/hive-script.sql

  3) hive -i:在进入交互模式之前,执行初始化sql文件

    % hive -i /home/my/hive-init.sql

  4) hive -v:输出执行的HQL语句到控制台

  5) Hive -S:只显示运行结果,不显示其他信息:

    % hive -S -e ‘select * from dummy’

3.Hive的交互模式下特殊命令:

  使用a!前缀来运行宿主操作系统的命令,即linux的操作命令。hive > a! ….

  使用dfs命令来访问hadoop文件系统,即执行hadoop命令。hive > dfs….

4.保存查询结果

  第一种方式:

    % hive -e ‘select * from dummy‘ > a.txt

  第二种方式:

    hive > Insert overwrite local directory ‘/root/hive/a.txt’ select * from logs sort by ts;

5.下面是一个生成单行表的方法:

  % echo ‘x‘ > /tmp/dummy.txt

  % hive -e "create table dummy (value string); \

      load data local inpath ‘/tmp/dummy.txt‘ overwrite into table dummy"

//local表示从本地的Linux系统拷贝文件到hdfs系统上的‘/user/hive/warehouse/‘目录下。

//overwrite表示覆盖写,即把原有的文件删除,再将本地的数据写入。如果省略这一关键字,Hive就简单的把新的数据文件加入目录中。

时间: 2024-11-05 14:52:12

Hive Shell常用操作的相关文章

MongoDB Shell 常用操作

数组查询 数组查询 MongoDB 中有子文档的概念,一个文档中能方便的嵌入子文档,这与关系性数据库有着明显的不同,在查询时,语法有一些注意点. 例子代码,假如我们的一个集合(tests)中存在标签键,有如下模式: tags: [ObjectId] 查询含有某个标签 ID 的文档 db.tests.find({tags: tagId}); 我现在有一组标签 tagIds,即是数组,需要查询含有该数组中任一元素的文档,此时需要用到 $in 操作符 db.tests.find({tags: {$in

Hive基础之Hive表常用操作

本案例使用的数据均来源于Oracle自带的emp和dept表 创建表 语法: CREATE [EXTERNAL] TABLE [IF NOT EXISTS] [db_name.]table_name [(col_name data_type [COMMENT col_comment], ...)] [COMMENT table_comment] [PARTITIONED BY (col_name data_type [COMMENT col_comment], ...)] [CLUSTERED

二、hive shell常用命令

在使用hive shell之前我们需要先安装hive,并启动hdfs 请参考:https://www.cnblogs.com/lay2017/p/9973298.html hive shell 我们先进入安装目录 cd /usr/local/hadoop/hive/apache-hive-1.2.2-bin 使用Hive命令启动hive shell hive 查看一下数据库,发现有一个默认的default 我们需要创建一个新的test数据库 再看一下数据库,test数据库已经创建完成了 我们切换

hive的常用操作

1.hive的数据类型 tinyint/smallint/int/bigint tinyint:从 0 到 255 的整型数据 smallint:从 0 到 65535 的整型数据 int:从 0 到 4294967296 的整型数据 bigint:所有数字 float/double boolean stringdate 2.基本操作 显示所有库:show databases;创建库:create database media_pro;切换到指定库:use media_pro;查看表结构:des

Hive Shell 常用命令

Hive  命令行常用命令 加载数据 load data local inpath '/home/IVR_CSR_MENU_MAP.txt' into table ivr_csr_menu_map; 分区的: load data local inpath '/home/lftest/lf1.txt' overwrite into table lf_test partition(dt=20150927); 加overwrite会覆盖原数据(已有的话)若不加,又有原数据,则会生成一个copy文件 l

hive (二) ----- hive的常用操作

一.hive操作 1.创建表 CREATE TABLE t3(id int,name string,age int) PARTITIONED BY (Year INT, Month INT) ROW FORMAT DELIMITED FIELDS TERMINATED BY ',' ; 2.导出表结构+数据 EXPORT TABLE customers TO '/user/centos/tmp.txt'; 3.排序 1)order全排序 order by 会对输入做全局排序,因此只有一个redu

HBase基础之Hbase shell常用操作

一般操作 查看服务器状态 status 查看hbase版本 version DDL操作 创建表 create 'member','member_id','address','info' 创建了3个列族,分别是member_id, address, info 知识点回顾:cf是schema的一部分,而column不是. 查看表信息 describe 'member' DESCRIPTION ENABLED 'member', {NAME => 'address', DATA_BLOCK_ENCOD

70个shell常用操作

1) 如何向脚本传递参数 ? ./script argument 例子: 显示文件名称脚本 ./show.sh file1.txt cat show.sh #!/bin/bash echo $1 2) 如何在脚本中使用参数 ? 第一个参数 : $1,第二个参数 : $2 例子 : 脚本会复制文件(arg1) 到目标地址(arg2) ./copy.sh file1.txt /tmp/ cat copy.sh #!/bin/bash cp $1 $2 3) 如何计算传递进来的参数 ? $# 4) 如

shell常用操作积累

1. 拼接字符串* #!/bin/sh write_log(){ local up_name=$1 local num=${#string} while [ $num -le 256 ]; do up_name="$up_name*" num=$(($num + 1)) done echo $up_name } write_log "wang" 输出: wang*****************************************************