大数据:从入门到XX(十)

开始准备安装hive2.1.0了,hive的安装涉及到元数据-metastore存储的问题,hive元数据支持多种数据库,此处只考虑一般的mysql数据库。首先查询hive2.1.0相关的元数据库兼容性要求,访问hive的wiki网站:https://cwiki.apache.org/confluence/display/Hive/AdminManual+MetastoreAdmin,大约一分钟后,页面终于打开了,数据库的版本要求如下表:

Database Minimum Supported Version Name for Parameter Values See Also
Postgres 9.1.13 postgres
Oracle 11g oracle hive.metastore.orm.retrieveMapNullsAsEmptyStrings
MySQL 5.6.17 mysql
MS SQL  Server 2008 R2 mssql

从上表可以看出,mysql版本必须是5.6.17,确认了一下我的linux版本及linux自带的已经安装的mysql版本,发现预装的mysql版本太低了。

[[email protected] ~]# lsb_release -a
LSB Version:    :core-4.0-amd64:core-4.0-noarch:graphics-4.0-amd64:graphics-4.0-noarch:printing-4.0-amd64:printing-4.0-noarch
Distributor ID: RedHatEnterpriseServer
Description:    Red Hat Enterprise Linux Server release 6.3 (Santiago)
Release:        6.3
Codename:       Santiago

再查看一下预装的mysql版本:

[[email protected] ~]# rpm -qa|grep -i ‘MYSQL‘
qt-mysql-4.6.2-24.el6.x86_64
mod_auth_mysql-3.0.0-11.el6_0.1.x86_64
php-mysql-5.3.3-3.el6_2.8.x86_64
mysql-libs-5.1.61-4.el6.x86_64
mysql-5.1.61-4.el6.x86_64
mysql-server-5.1.61-4.el6.x86_64
mysql-devel-5.1.61-4.el6.x86_64
mysql-connector-odbc-5.1.5r1144-7.el6.x86_64
MySQL-python-1.2.3-0.3.c1.1.el6.x86_64
perl-DBD-MySQL-4.013-3.el6.x86_64
rsyslog-mysql-5.8.10-2.el6.x86_64

于是从mysql官网重新下载了mysql5.6.17版本,下载地址如下表所示,不过似乎这个地址现在又不能访问了。

http://cdn.mysql.com/Downloads/MySQL-5.6/MySQL-client-5.6.17-1.linux_glibc2.5.x86_64.rpm
http://cdn.mysql.com/Downloads/MySQL-5.6/MySQL-server-5.6.17-1.linux_glibc2.5.x86_64.rpm
http://cdn.mysql.com/Downloads/MySQL-5.6/MySQL-devel-5.6.17-1.linux_glibc2.5.x86_64.rpm

下面说明mysql的详细安装过程。

1、逐条移除linux系统上已经安装的mysql安装包。

[[email protected] ~]# rpm -e qt-mysql-4.6.2-24.el6.x86_64 --nodeps
[[email protected] ~]# rpm -e mod_auth_mysql-3.0.0-11.el6_0.1.x86_64 --nodeps
[[email protected] ~]# rpm -e php-mysql-5.3.3-3.el6_2.8.x86_64 --nodeps
[[email protected] ~]# rpm -e mysql-libs-5.1.61-4.el6.x86_64 --nodeps
[[email protected] ~]# rpm -e mysql-5.1.61-4.el6.x86_64 --nodeps
[[email protected] ~]# rpm -e mysql-server-5.1.61-4.el6.x86_64 --nodeps
[[email protected] ~]# rpm -e mysql-devel-5.1.61-4.el6.x86_64 --nodeps
[[email protected] ~]# rpm -e mysql-connector-odbc-5.1.5r1144-7.el6.x86_64 --nodeps
[[email protected] ~]# rpm -e MySQL-python-1.2.3-0.3.c1.1.el6.x86_64 --nodeps
[[email protected] ~]# rpm -e perl-DBD-MySQL-4.013-3.el6.x86_64 --nodeps
[[email protected] ~]# rpm -e rsyslog-mysql-5.8.10-2.el6.x86_64 --nodeps

2、如果已经安装过mysql,需要彻底卸载mysql,删除残留文件。

[[email protected] ~]# rm -rf /usr/my*
[[email protected] ~]# rm /root/.mysql_secret
[[email protected] ~]# rm -rf /var/lib/mysql
[[email protected] ~]# rm -rf /usr/lib64/mysql

3、将下载的安装包传到linux服务器,然后在rpm包所在目录执行以下命令:


[[email protected] hadoop]# rpm -ivh MySQL-client-5.6.17-1.linux_glibc2.5.x86_64.rpm
Preparing...                ########################################### [100%]
   1:MySQL-client           ########################################### [100%]
[[email protected] hadoop]# rpm -ivh MySQL-devel-5.6.17-1.linux_glibc2.5.x86_64.rpm
Preparing...                ########################################### [100%]
   1:MySQL-devel            ########################################### [100%]
[[email protected] hadoop]# rpm -ivh MySQL-server-5.6.17-1.linux_glibc2.5.x86_64.rpm
Preparing...                ########################################### [100%]
   1:MySQL-server           ########################################### [100%]

......

......

4、确定已经安装好的mysql安装信息

[[email protected] hadoop]# rpm -qa|grep -i ‘mysql‘
MySQL-client-5.6.17-1.linux_glibc2.5.x86_64
MySQL-server-5.6.17-1.linux_glibc2.5.x86_64
MySQL-devel-5.6.17-1.linux_glibc2.5.x86_64

5、#设置启动服务service,执行以下拷贝命令


[[email protected] hadoop]# cp /usr/share/mysql/mysql.server /etc/init.d/mysqld

6、修改字符集参数


[[email protected] ~]# vi /usr/my.cnf

在源文件的结尾添加以下几行

#modify start 20161103
character-set-server=utf8

[client]
default-character-set=utf8
#modify end 20161103

7、重启mysql服务

[[email protected] ~]# service mysqld restart
Shutting down MySQL..                                [确定]
Starting MySQL..                                           [确定]

8、修改mysql 数据库的root用户密码


说明:首先执行下面的命令,查询mysql初始化设置的root用户随机密码

[[email protected] ~]# cat /root/.mysql_secret
# The random password set for the root user at Fri Jul  8 01:26:20 2016 (local time): OpJShw_zGRo6c0UK

#将上面查询到的随机密码作为第二个参数,前面加上“-p"

[[email protected] ~]#mysql -uroot –pOpJShw_zGRo6c0UK

9、进入mysql命令行后,设置新的密码


mysql> SET PASSWORD = PASSWORD(‘123456‘);
Query OK, 0 rows affected (0.07 sec)

10、从命令行退出mysql,用新设置的密码进入mysql


#退出MYSQL
mysql> quit
Bye

至此,mysql5.6.17安装大功告成。

时间: 2024-08-01 07:32:50

大数据:从入门到XX(十)的相关文章

[大数据从入门到放弃系列教程]第一个spark分析程序

文章施工中,由于部分网站会在我还没有写完就抓取到这篇文章,导致你看到的内容不完整,请点击这里: 或者复制访问 http://www.cnblogs.com/blog5277/p/8580007.html 来查看更完整的内容 [大数据从入门到放弃系列教程]第一个spark分析程序 原文链接:http://www.cnblogs.com/blog5277/p/8580007.html 原文作者:博客园--曲高终和寡 *********************分割线******************

大数据开发入门你必须知道的事情

昨天和三个学计算机专业的学生聊天时聊到了大数据开发方面的话题,他们三个人中,有两个已经进入企业开始工作,另外一个还是大二学生,但已经开设了自己的工作室.他们都是从事程序开发方面工作的.大数据开发自然都有关注到,只是目前的大数据技能水平只能说是"小菜鸟"吧,连入门还谈不上.当然了,大数据开发方面我也只能算是个"小学生",也是跟在师傅后面学.自然hadoop.区块链火了以后,发现很多从事程序开发的"码农"朋友们也陆续投入到大数据开发的怀抱.对于有多年

超人学院大数据高薪就业班第十期火爆招生中

超人学院第十期火爆招生中,你想明年跳槽吗,你想高薪就业吗,你想一毕业就找到好工作吗,那么赶快报名超人学院大数据高薪就业班吧, 大数据 好工作 成功高薪就业!! http://www.crxy.cn/course/job9 

自学大数据如何入手?大数据学习入门看什么书?

2018年,火爆的科技层出不穷,大数据.云计算.人工智能.区块链等等都被侃侃而谈.尤其是大数据工程师更是深受程序员的青睐,如此火爆的职业,吸引了大批有志青年的加入.但在加入之前,你仍需要一份详细的就业前景分析报告. 作为中国官方重点扶持的战略性新兴产业,大数据产业已逐步从概念走向落地"大数据"和"虚拟化"两大热门领域得到了广泛关注和重视,90%企业都在使用大数据. 财政大数据包括:公安大数据.质检大数据.食品安全大数据.卫生大数据.共商大数据.民政大数据: 企业大数

大数据hadoop入门之hadoop家族详解

大数据这个词也许几年前你听着还会觉得陌生,但我相信你现在听到hadoop这个词的时候你应该都会觉得"熟悉"!越来越发现身边从事hadoop开发或者是正在学习hadoop的人变多了.作为一个hadoop入门级的新手,你会觉得哪些地方很难呢?运行环境的搭建恐怕就已经足够让新手头疼.如果每一个发行版hadoop都可以做到像大快DKHadoop那样把各种环境搭建集成到一起,一次安装搞定所有,那对于新手来说将是件多么美妙的事情!闲话扯得稍微多了点,回归整体.这篇准备给大家hadoop新入门的朋友

零基础学习大数据怎样入门Spark

1.什么是Spark Apache Spark是一个围绕速度.易用性和复杂分析构建的大数据处理框架.最初在2009年由加州大学伯克利分校的AMPLab开发,并于2010年成为Apache的开源项目之一. 与Hadoop和Storm等其他大数据和MapReduce技术相比,Spark有如下优势,一起来看看吧. 首先,Spark为我们提供了一个全面.统一的框架用于管理各种有着不同性质(文本数据.图表数据等)的数据集和数据源(批量数据或实时的流数据)的大数据处理的需求. Spark可以将Hadoop集

DT大数据梦工厂第三十五课 Spark系统运行循环流程

本节课内容: 1.     TaskScheduler工作原理 2.     TaskScheduler源码 一.TaskScheduler工作原理 总体调度图: 通过前几节课的讲解,RDD和DAGScheduler以及Worker都已有深入的讲解,这节课我们主要讲解TaskScheduler的运行原理. 回顾: DAGScheduler面向整个Job划分多个Stage,划分是从后往前的回溯过程:运行时从前往后运行的.每个Stage中有很多任务Task,Task是可以并行执行的.它们的执行逻辑完

大数据-04-Hbase入门

本指南介绍了HBase,并详细指引读者安装HBase. 前面第二章学习指南已经指导大家安装Linux操作系统,并安装配置了Hadoop.相关安装可以查看"大数据-01-安装Hadoop". 一.安装并配置HBase 1. HBase安装 1.1 解压安装包hbase-1.1.2-bin.tar.gz至路径 /usr/local,命令如下: sudo cp hbase-1.1.2-bin.tar.gz /usr/local cd /usr/local sudo tar -zxf hbas

大数据学习入门看什么书?大数据新手怎么入门?

大数据,big data,大数据是指不能用随机分析法(抽样调查)这样捷径,而采用所有数据进行分析处理.这句话至少传递两种信息:大数据是海量的数据,另外大数据处理无捷径,对分析处理技术提出了更高的要求. 其实简单的来说,大数据就是通过分析和挖掘全量的非抽样的数据辅助决策.大数据可以实现的应用可以概括为两个方向,一个是精准化定制,第二个是预测.比如像通过搜索引擎搜索同样的内容,每个人的结果却是大不相同的.再比如精准营销.百度的推广.淘宝的喜欢推荐,或者你到了一个地方,自动给你推荐周边的消费设施等等.

大数据怎么入门

一.如何区分三个大数据热门职业--数据科学家.数据工程师.数据分析师 随着大数据的愈演愈热,相关大数据的职业也成为热门,给人才发展带来带来了很多机会.数据科学家.数据工程师.数据分析师已经成为大数据行业最热门的职位.它们是如何定义的?具体是做什么工作的?需要哪些技能?让我们一起来看看吧. 这3个职业是如何定位的? 对大数据以及人工智能概念都是模糊不清的,该按照什么线路去学习,学完往哪方面发展,想深入了解,想学习的同学欢迎加入大数据学习qq群:458345782,有大量干货(零基础以及进阶的经典实