关于 HIVE Beeline 问题

1  启动 hiveserver2 服务,启动 beeline -u jdbc:hive2:// 正常 ,启动 beeline -u jdbc:hive2://127.0.0.1:10000 包如下错误

Error: Failed to open new session: java.lang.RuntimeException: org.apache.hadoop.ipc.RemoteException(org.apache.hadoop.security.authorize.AuthorizationException): User: root is not allowed to impersonate anonymous (state=,code=0)
Beeline version 2.1.0 by Apache Hive

分析 : 访问权限问题

解决 :在hdfs 的配置文件core-site.xml中加入如下配置,root 为位置填入  User:*  ,etc   hadoop.proxyuser.eamon.hosts

  <property>
    <name>hadoop.proxyuser.root.hosts</name>
    <value>*</value>
   </property>
   <property>
    <name>hadoop.proxyuser.root.groups</name>
    <value>*</value>
  </property>

重新启动HDFS 。

 2  执行 beeline -u jdbc:hive2://127.0.0.1:10000 ,报如下错误

Error: Failed to open new session: java.lang.RuntimeException: org.apache.hadoop.security.AccessControlException: Permission denied: user=anonymous, access=EXECUTE, inode="/tmp/hive":root:supergroup:drwx------
at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.check(FSPermissionChecker.java:319)
at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkTraverse(FSPermissionChecker.java:259)
at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkPermission(FSPermissionChecker.java:205)
at org.apache.hadoop.hdfs.server.namenode.FSPermissionChecker.checkPermission(FSPermissionChecker.java:190)
at org.apache.hadoop.hdfs.server.namenode.FSDirectory.checkPermission(FSDirectory.java:1720)
at org.apache.hadoop.hdfs.server.namenode.FSDirStatAndListingOp.getFileInfo(FSDirStatAndListingOp.java:108)
at org.apache.hadoop.hdfs.server.namenode.FSNamesystem.getFileInfo(FSNamesystem.java:3855)
at org.apache.hadoop.hdfs.server.namenode.NameNodeRpcServer.getFileInfo(NameNodeRpcServer.java:1011)

分析 : HDFS 文件系统权限问题

解决 : 临时解决

bin/hdfs dfs -chmod -R 777  /tmp/

时间: 2024-11-05 23:19:14

关于 HIVE Beeline 问题的相关文章

Hive Beeline 官方文档学习

Beeline 是什么? 它是一个命令行形式的jdbc客户端.搞Java开发的同学,看到这里就应该知道这货是什么了 ── 它是一个连接数据库的工具. 只不过Beeline连接的数据库是HiveServer2. Beeline 有两种工作模式:内嵌.远程. 内嵌模式中,会运行一个内嵌的Hive(类似于Hive CLI). 远程模式中,通过Thrift协议连接到一个不同的HiveServer2.从Hive 0.14起,Beeline连接HiveServer2 时,还会将HiveServer2 执行查

Hive beeline update

Hive cli vs beeline The primary difference between the two involves how the clients connect to Hive. The Hive CLI connects directly to the Hive Driver and requires that Hive be installed on the same machine as the client. Beeline connects to HiveServ

Hive 系列(三)—— Hive CLI 和 Beeline 命令行的基本使用

一.Hive CLI 1.1 Help 使用 hive -H 或者 hive --help 命令可以查看所有命令的帮助,显示如下: usage: hive -d,--define <key=value> Variable subsitution to apply to hive commands. e.g. -d A=B or --define A=B --定义用户自定义变量 --database <databasename> Specify the database to use

Hive 8、Hive2 beeline 和 Hive jdbc

1.Hive2 beeline  Beeline 要与HiveServer2配合使用,支持嵌入模式和远程模式 启动beeline 打开两个Shell窗口,一个启动Hive2 一个beeline连接hive2 #启动HiverServer2 , ./bin/hiveserver2 [[email protected] ~]# hiveserver2 16/02/23 22:55:25 WARN conf.HiveConf: HiveConf of name hive.metastore.local

Hive的三种安装方式(内嵌模式,本地模式远程模式)

一.安装模式介绍:     Hive官网上介绍了Hive的3种安装方式,分别对应不同的应用场景.     1.内嵌模式(元数据保村在内嵌的derby种,允许一个会话链接,尝试多个会话链接时会报错)     2.本地模式(本地安装mysql 替代derby存储元数据)     3.远程模式(远程安装mysql 替代derby存储元数据) 二.安装环境以及前提说明:     首先,Hive是依赖于hadoop系统的,因此在运行Hive之前需要保证已经搭建好hadoop集群环境.     本文中使用的

hive 未初始化元数据库报错

启动hive-metastore和hive-server2 用beeline连接hive报错 [[email protected] hive]# beeline Beeline version 0.13.1-cdh5.3.0 by Apache Hive beeline> !connect jdbc:hive2://172.16.145.114:10000 hive scan complete in 3ms Connecting to jdbc:hive2://172.16.145.114:10

CentOS配置Hive

hive搭建共分为三种模式:1.embedded,2.local,3.remote server 在这里,主要是配置第3种模式:remote server模式 我的环境共三台虚拟机:Host0,Host2,Host3 在remote server模式中,Host0:Hive-server2 Host2:Hive-metastore Host3:MySQL server 1.分别在Host0,Host2和Host3中安装hive-server2,hive-metastore,mysql-serve

cm 安装cdh 后添加hive服务

cm 安装cdh 后添加hive服务,出现错误提示 添加服务时候hive 配置如下: 错误信息提示: 错误日志: xec /opt/cloudera/parcels/CDH-5.4.7-1.cdh5.4.7.p0.3/lib/hadoop/bin/hadoop jar /opt/cloudera/parcels/CDH-5.4.7-1.cdh5.4.7.p0.3/lib/hive/lib/hive-cli-1.1.0-cdh5.4.7.jar org.apache.hive.beeline.Hi

Hive Remote模式搭建

一.实验环境 1.软件版本:apache-hive-2.3.0-bin.tar.gz.mysql-community-server-5.7.19 2.mysql JDBC驱动包:mysql-connector-java-5.1.44.tar.gz 3.mysql已经安装在hadoop5上 4..主机规划 hadoop3 Remote:client hadoop4 Remote:client hadoop5 Remote:server:mysql 二.基础配置 1.解压并移动hive [[emai