Mysql 集群环境搭建

在上一篇文章中已经详细的写了关于Mysql的安装步骤。这一篇文章在上一篇文章的基础之上接着写集群的安装与部署。

安装地址:https://www.cnblogs.com/ming-blogs/p/10962554.html

MySQL从复制配置

主节点服务器 地址 192.168.0.105

从节点服务器 地址 192.168.0.107

主节点服务器安装好之后,直接clone 一个即可,不需要重复安装2次。

主节点服务器配置

1.进入配置页面命令

vi /etc/my.cnf

2.配置服务器id server_id

这里的server_id 尽量配置为服务器地址的后3位 以用来区分

server_id=105

3.开启日志文件(binLog)

log-bin=mysql-bin

配置文件的地址应该在 : # Recommended in standard MySQL setup,否则配置不起作用

如下图所示

4.重启mysql服务

service mysqld restart

验证是否已经配置成功

5.show variables like ‘%server_id%‘;

能够查询对应配置文件中的server_id 说明已经配置成功,如下图,则表示配置成功。server_id=105

6.show master status;

能够看到同步的文件,和行数说明已经配置成功。

服务器节点

1.进入配置页面命令

vi /etc/my.cnf

2.配置服务器id server_id

这里的server_id 尽量配置为服务器地址的后3位 以用来区分

server_id=105

3.开启日志文件(binLog)

log-bin=mysql-bin

4.添加需用同步的数据库

binlog_do_db=test

5.重启mysql服务

service mysqld restart

验证是否已经配置成功

6.show variables like ‘%server_id%‘;

能够查询对应配置文件中的server_id 说明已经配置成功

7.从服务器同步主服务器配置

master_host 主服务器地址

master_user 主服务器用户名

master_password 主服务器密码

master_log_file 主服务器配置文件

master_log_pos 主服务器读取配置文件的开始位置,也就是从第多少行开始读取。

change master to master_host=‘192.168.0.105‘,master_user=‘root‘,master_password=‘root‘,master_log_file=‘mysql-bin.000001‘,master_log_pos=120;

8.开始同步 

start slave

9.检查从服务器复制功能状态

SHOW SLAVE STATUS

如果二个从服务器是克隆主服务器的,这时候就会出现如下图的情况,二个服务器的server-uuid 是相同的,因为是克隆过来的。这时候运行  SHOW SLAVE STATUS  就会出现 Slave_IO_Running 为 No,而Slave_SQL_Running为Yes。说明IO同步出错,在Last_IO_Error 字段可以看到错误信息,如下。错误信息的意思就是server-uuid 重复了。也就是下图展示的效果。

Fatal error: The slave I/O thread stops because master and slave have equal MySQL server UUIDs; these UUIDs must be different for replication to work。

如果出现这种情况,需要将 /var/lib/mysql  文件下的生成uuid 的文件删除,然后再重新启动 mysql 服务,就会重新在生成一个 server-uuid,在下图2中 也 显示了这个重新生成的server-uuid。

如果你的从服务器不是克隆主服务器而是重新安装的,那么就不会出现这种情况。直接运行  SHOW SLAVE STATUS 命令,如下图。则表示同步成功

存放server-uuid的 地址,可以在 /etc/my.cnf 文件中查看,如下图。

如何验证我们mysql 主从复制 集群搭建成功?

在105节点主服务器)新建test数据库,如果107节点(从服务器)能够同步过来,则说明环境搭建成功。

如下图,图一是没有创建test数据库之前,在105 服务器上创建一个test数据库,然后107关闭连接 再重新打开连接、或者直接刷新,发现test数据库已经同步过来了,如图2的效果。

同样的,在105服务器节点中的test数据库中新建表test001,然后在107节点中刷新,test001表也同步了过来,如下图。

这时候在105节点的test数据库中的test_001数据表添加数据,107 节点也会把数据同步过来,如下图。

但是这时候我修改105节点数据库中数据表(test_001)的数据的时候,107节点的数据并没有更新过来,如下图。

这个问题,将在下一篇读写分离博客中写出来。

原文地址:https://www.cnblogs.com/ming-blogs/p/10963011.html

时间: 2024-08-02 13:00:49

Mysql 集群环境搭建的相关文章

项目进阶 之 集群环境搭建(三)多管理节点MySQL集群

上次的博文项目进阶 之 集群环境搭建(二)MySQL集群中,我们搭建了一个基础的MySQL集群,这篇博客咱们继续讲解MySQL集群的相关内容,同时针对上一篇遗留的问题提出一个解决方案. 1.单管理节点MySQL集群和多管理节点MySQL集群 上一篇的博客中,我们搭建的MySQL集群架构中,只存在一个管理节点,这样搭建的集群可以用如下所示的结构表示. 仔细分析上图就会发现,上图所示的单管理节点MySQL集群存在当唯一的管理节点由于网络.断电.压力过大等各种原因宕机后,数据节点和SQL节点将会各自为

Hadoop2.2.0-HA高可用集群环境搭建

Hadoop2.2.0-HA高可用集群环境搭建 集群主机信息 主机名称 主机ip 配置 主要功能 master1 硬盘300G,内存32G,CPU8核 管理主节点 master2 硬盘300G,内存32G,CPU8核 管理备份节点 slave1 硬盘300G,内存8G,CPU4核 数据节点 slave2 硬盘300G,内存8G,CPU4核 数据节点 slave3 硬盘300G,内存8G,CPU4核 数据节点 slave4 硬盘500G,内存4G,CPU2核 mysql数据库 本次集群使用6台物理

Nginx1.7.4+Tomcat7+memcached集群环境搭建

这几天研究了一下Nginx和tomcat的集群环境搭建,同时支持HTTP请求和HTTPS请求,研究了一下,整理一下,分享给大家.还是有很多不足的地方,大家发现问题,希望多多指正.话不多说,上代码~ 因为研究的条件有限,我是在本机上搭建两个Tomcat进行模拟的. 一.环境准备 1.Tomcat7:http://tomcat.apache.org/download-70.cgi 2.Nginx1.7.4:http://nginx.org/en/download.html 3.Memcached:h

[转]ZooKeeper 集群环境搭建 (本机3个节点)

ZooKeeper 集群环境搭建 (本机3个节点) 是一个简单的分布式同步数据库(或者是小文件系统) --------------------------------------------------------1.建立目录server1server1/dataDirserver1/dataLogDirserver1/logsserver1/zookeeper3.4.6 server2server2/dataDirserver2/dataLogDirserver2/logsserver2/zo

solr集群环境搭建

Solr集群环境搭建 一.     准备 1.     下载: solr-4.4.0.zip   solr安装包 apache-tomcat-7.0.47.tar.gz  tomcat安装包 2.     说明: 其中集群环境采用nginx做分发(也可以使用apache),nginx的安装这里不再介绍.我们共有四台机器,分别如下 10.10.42.164 10.10.42.165 10.10.42.166 10.10.42.167 其中10.10.42.164作为主节点安装nginx,solr

Neo4j集群环境搭建

引言: Neo4j是目前主流的图数据库,它本身也提供了高可用的集群解决方案,本文将尝试搭建高可用的neo4j环境. 1. 什么是图数据库? 图形数据库(graphic database)是利用计算机将点.线.画霹图形基本元素按一定数据结同灶行存储的数据集合. 图形数据库将地图与其它类型的平面图中的图形描述为点.线.面等基本元素,并将这些图形元素按一定数据结构(通常为拓扑数据结构)建立起来的数据集合.包括两个层次:第一层次为拓扑编码的数据集合,由描述点.线.面等图形元素间关系的数据文件组成,包括多

一:Storm集群环境搭建

第一:storm集群环境准备及部署[1]硬件环境准备--->机器数量>=3--->网卡>=1--->内存:尽可能大--->硬盘:无额外需求[2]软件环境准备--->CentOS-6.0-x86_64系统环境--->三台地址--->zookeeper和storm公用物理环境 第二:节点环境查看 第三:节点之间用ip-->别名绑定/etc/hosts,然后用ping 别名 进行测试 第四:zookeeper集群环境搭建第五:Storm集群环境搭建[1

Hadoop2.6集群环境搭建

Hadoop2.6集群环境搭建(HDFS HA+YARN)原来4G内存也能任性一次. 准备工作: 1.笔记本4G内存 ,操作系统WIN7 (屌丝的配置) 2.工具VMware Workstation 3.虚拟机:CentOS6.4共四台 虚拟机设置: 每台机器:内存512M,硬盘40G,网络适配器:NAT模式 选择高级,新生成虚机Mac地址(克隆虚拟机,Mac地址不会改变,每次最后手动重新生成) 编辑虚拟机网络: 点击NAT设置,查看虚机网关IP,并记住它,该IP在虚机的网络设置中非常重要. N

ZooKeeper伪集群环境搭建

1.从官网下载程序包. 2.解压. [[email protected] software]$ tar xzvf zookeeper-3.4.6.tar.gz 3.进入zookeeper目录后创建data目录. [[email protected] software]$ cd zookeeper-3.4.6 [[email protected] software]$ mkdir data [[email protected] software]$ cd data [[email protecte