hadoop安装部署3------安装hive

安装mysql

mysql装在了master节点上

1)卸载系统自带的mysql相关安装包,仅卸载 mysql 开头的包

rpm -qa|grep -i mysql

-i 作用是不区分大小写

可以看到有两个安装包

MySQL-server-5.6.19-1.linux_glibc2.5.x86_64.rpm

MySQL-client-5.6.19-1.linux_glibc2.5.x86_64.rpm

删除这两个服务(去掉后缀)

rpm -e MySQL-client-5.6.19-1.linux_glibc2.5.x86_64

rpm -e MySQL-server-5.6.19-1.linux_glibc2.5.x86_64

查看残留的目录:

whereis mysql

然后删除mysql目录:

rm –rf /usr/lib64/mysql

删除相关文件:

rm –rf /usr/my.cnf

rm -rf /root/.mysql_sercret

最关键的:

rm -rf /var/lib/mysql

2)安装mysql依赖

yum install vim libaio net-tools

3)安装mysql5.5.39的rpm包

rpm -ivh /opt/MySQL-server-5.5.39-2.el6.x86_64.rpm

rpm -ivh /opt/MySQL-client-5.5.39-2.el6.x86_64.rpm

4)拷贝配置文件

cp /usr/share/mysql/my-medium.cnf /etc/my.cnf

5)启动mysql服务

service mysql start

6)设置为开机自启动

chkconfig mysql on

7)设置root用户登录密码

/usr/bin/mysqladmin -u root password ‘root‘

8)登录mysql 以root用户身份登录

mysql -uroot –proot

安装hive

hive装在了master节点上

1)在mysql中创建hive用户,数据库等

insert into mysql.user(Host,User,Password) values("localhost","hive",password("hive"));

create database hive;

grant all on hive.* to [email protected]‘%‘ identified by ‘hive‘;

grant all on hive.* to [email protected]‘localhost‘ identified by ‘hive‘;

flush privileges;

2)退出mysql

exit

3)添加环境变量

4)修改hive-site.xml

<property>

<name>javax.jdo.option.ConnectionURL</name>

<value>jdbc:mysql://localhost:3306/hive</value>

<description>JDBC connect string for a JDBC metastore</description>

</property>

<property>

<name>javax.jdo.option.ConnectionDriverName</name>

<value>com.mysql.jdbc.Driver</value>

<description>Driver class name for a JDBC metastore</description>

</property>

<property>

<name>javax.jdo.option.ConnectionPassword</name>

<value>hive</value>

<description>password to use against metastore database</description>

</property>

<property>

<name>hive.hwi.listen.port</name>

<value>9999</value>

<description>This is the port the Hive Web Interface will listen on</description>

</property>

<property>

<name>datanucleus.autoCreateSchema</name>

<value>true</value>

<description>creates necessary schema on a startup if one doesn‘t exist. set this to false, after creating it once</description>

</property>

<property>

<name>datanucleus.fixedDatastore</name>

<value>false</value>

<description/>

</property>

<property>

<name>javax.jdo.option.ConnectionUserName</name>

<value>hive</value>

<description>Username to use against metastore database</description>

</property>

<property>

<name>hive.exec.local.scratchdir</name>

<value>/opt/apache-hive-1.2.1-bin/iotmp</value>

<description>Local scratch space for Hive jobs</description>

</property>

<property>

<name>hive.downloaded.resources.dir</name>

<value>/opt/apache-hive-1.2.1-bin/iotmp</value>

<description>Temporary local directory for added resources in the remote file system.</description>

</property>

<property>

<name>hive.querylog.location</name>

<value>/opt/apache-hive-1.2.1-bin/iotmp</value>

<description>Location of Hive run time structured log file</description>

</property>

5)拷贝mysql-connector-java-5.1.6-bin.jar 到hive 的lib下面

mv /home/hdpsrc/Desktop/mysql-connector-java-5.1.6-bin.jar /home/hdpsrc/hive/lib/

6)把jline-2.12.jar拷贝到hadoop相应的目录下,替代jline-0.9.94.jar,否则启动会报错

cp /home/hdpsrc/hive/lib/jline-2.12.jar /home/hdpsrc/hadoop-2.6.3/share/hadoop/yarn/lib/

mv /home/hdpsrc/hadoop-2.6.3/share/hadoop/yarn/lib/jline-0.9.94.jar /home/hdpsrc/hadoop-2.6.3/share/hadoop/yarn/lib/jline-0.9.94.jar.bak

7)创建hive临时文件夹

mkdir /home/hdpsrc/hive/iotmp

8)启动测试hive

启动hadoop后,执行hive命令

hive

测试输入 show database;

hive> show databases;

OK

default

Time taken: 0.907 seconds, Fetched: 1 row(s)

时间: 2024-10-16 01:58:52

hadoop安装部署3------安装hive的相关文章

Hive安装部署与配置

Hive安装部署与配置 1.1 Hive安装地址 1)Hive官网地址: http://hive.apache.org/ 2)文档查看地址: https://cwiki.apache.org/confluence/display/Hive/GettingStarted 3)下载地址: http://archive.apache.org/dist/hive/ 4)github地址: https://github.com/apache/hive 1.2 Hive安装部署 1)Hive安装及配置 (1

Hive_初步见解,安装部署与测试

一.hive是什么东东 1. 个人理解 hive就是一个基于hdfs运行于MapReduce上的一个java项目, 这个项目封装了jdbc,根据hdfs编写了处理数据库的DDL/DML,自带的 二进制包内嵌Derby数据库,且默认使用Derby,简而言之,hive就是一个 帮助我们处理/分析数据的工具,不过这个工具却像namenode一样存储了 一份文件的元数据,这就有点像数据仓库的感觉 2. 架构 分为服务端.客户端,基于hadoop,运行在mapreduce,存储于hfds, 可与hbase

Hive_安装部署

1.Hive官网地址 http://hive.apache.org/ 2.文档查看地址 https://cwiki.apache.org/confluence/display/Hive/GettingStarted 3.下载地址 http://archive.apache.org/dist/hive/ 4.github地址 https://github.com/apache/hive Hive安装部署 1.Hive安装及配置 (1)把apache-hive-1.2.1-bin.tar.gz上传到

mysql cluster安装部署

mysql cluster安装部署: http://www.178linux.com/36462 IPADDR=192.168.0.71 NETMASK=255.255.255.0 GATEWAY=192.168.0.1 DNS1=192.168.0.1 管理节点(MGM):  192.168.1.71 数据节点1(NDBD1):192.168.1.72 数据节点2(NDBD2):192.168.1.73 sql节点1(SQL1):   192.168.1.74 sql节点2(SQL2):  

KVM安装部署、快照备份及常用命令

KVM安装部署: 安装kvm虚拟机首先需要查看物理机的cpu是否支持虚拟化: [[email protected] ~]# cat /proc/cpuinfo | egrep 'vmx|svm' 找到flags部分,如果其中输出有VMX或SVM,即表明支持虚拟化技术. 如果物理机的cpu支持安装虚拟机,那么开始安装虚拟环境,如下: yum -y groupinstall "Virtualization" "Virtualization Client" "V

在Ubuntu14.04上OpenStack Juno安装部署

在Ubuntu14.04上OpenStack Juno安装部署 0 安装方式 0.1 安装方式 安装方式 说明 目标 备注 单结点 一台服务器运行所有的nova-xxx组件,同时也驱动虚拟实例. 这种配置只为尝试Nova,或者为了开发目的进行安装.   1控制节点+N个计算节点 一个控制结点运行除nova-compute外的所有nova-services,然后其他compute结点运行nova-compute.所有的计算节点需要和控制节点进行镜像交互,网络交互,控制节点是整个架构的瓶颈. 这种配

JDK 安装部署

JDK 安装部署JDK 安装部署 环境:OS: CentOS 6.4JDK版本: jdk-7u17-linux-x64.tar.gz 一.解压JDK程序包: # tar -xf jdk-7u17-linux-x64.tar.gz -C /usr/local/ # ln -sv jdk1.7.0_17 java 二.配置JDK环境变量 # vim /etc/profile.d/java.sh export JAVA_HOME=/usr/local/java export PATH=$PATH:$J

002_HyperLedger Fabric安装部署

上一次我们把HyperLedger Fabric的环境全部搭建好了,下面开始正式的HyperLedger Fabric安装部署 首先需要安装编译工具gcc,用命令yum install -y gcc安装.创建文件夹路径mkdir -p /opt/gopath/src/github.com/hyperledger/,用yum install git安装git工具,再打开https://github.com/hyperledger/fabric页面,点击clone or download按钮,将地址

zabbix-proxy安装部署

zabbix-proxy安装部署 zabbixzabbix-proxy安装部署安装脚本 环境 zabbixserver 10.0.0.12 zabbixproxy 10.0.0.13 1 脚本快速部署 #!/bin/bash # install zabbix-proxy # version 1.0 # author wangzhen # date 20190506 OsVersion=`cat /etc/redhat-release|awk -F "." '{print $1}'|gr