Web集群实现共享存储的架构演变及MogileFS

本篇博客从Web集群中亟需解决的大容量存储问题引入,分析了几类常用的共享存储架构,重点解析了分布式存储系统的原理及配置实现;

===================================================================

1 共享存储的架构演变

2 分布式存储系统

2.1 基础知识

2.2 分类

2.3 CAP理论

2.4 协议

3 MogileFS

3.1 特性

3.2 架构

3.3 组成

3.4 服务安装及启动

3.5 配置部署

3.6 配置前端代理Nginx

3.7 访问验证

3.8 后续扩展

===================================================================

1 共享存储的架构演变

  • rsync+inotify:本地各保留一份完整数据,但通过rsync实时同步修改文件,双主模型哦
  • NFS:多节点挂载后性能下降严重;存在单点故障,且多个客户端并发修改同一个文件时可能出现不一致的情况;
  • SAN:存储区域网络,不适用于海量高并发的存储场景,且代价昂贵;可通过软件实现iSCSI存储网络;涉及GFS2/CLVM(LVM2)
  • MooseFS:分布式文件系统,适用于海量小文件存储;支持FUSE,可被挂载使用;
  • MogileFS:分布式存储系统,适用于海量小文件存储;不支持FUSE,只能通过API调用;

2 分布式存储系统

2.1 基础知识

定义:分布式存储系统是大量普通PC服务器通过Internet互联,对外作为一个整体提供存储服务

特性

  • 可扩展:分布式存储系统可以扩展到几百台至几千台的集群规模,且随着集群规模的增长,系统整体性能表现为线性增长;
  • 低成本:分布式存储系统的自动容错、自动负载均衡机制使其可以构建在普通PC机之上;另外,线性扩展能力也使得增加、减少机器非常方便,可以实现自动运维;
  • 高性能:无论是针对整个集群还是单台服务器,都要求分布式系统具备高性能;
  • 易用:分布式存储系统需要能够提供易用的对外接口;另外,也要求具备完善的监控、运维工具,并能方便的与其他系统集成,如从Hadoop云计算系统导入数据;

挑战:在于数据、状态信息的持久化,要求在自动迁移、自动容错、并发读写的过程中保证数据的一致性;

2.2 分类

数据类型大致可分为非结构化数据(如文本、图片、视频等),结构化数据(一般存储在关系型数据库中),半结构化数据(如HTML文档);根据处理不同类型数据的需求,分布式存储系统可分为如下4类:

  • 分布式文件系统:用于存储Blob对象,如图片、视频等,这类数据以对象的形式组织,对象之间没有关联;如GFS,MogileFS等;
  • 分布式键值系统:用于存储关系简单的半结构化数据,它只提供基于主键的CRUD(Create/Read/Update/Delete)功能;如Memcache,Redis等;
  • 分布式表格系统:用于存储关系较为复杂的半结构化数据,不仅支持简单的CRUD操作,还支持扫描某个主键范围;如Google Bigtable、Megastore;
  • 分布式数据库:用于存储结构化数据,利用二维表格组织数据;如MySQL Sharding集群,Google Spanner等;

2.3 CAP理论

来自Berkerly的Eric Brewer教授提出了一个著名的CAP理论:一致性(Consistency),可用性(Availability)和分区容忍性(Tolerance of network Partition)三者不能同时满足:

  • C:读操作总是能读取到之前完成的写操作结果,满足这个条件的系统成为强一致系统,这里的“之前”一般对同一个客户端而言;
  • A:读写操作在单台机器发生故障的情况下依然能够正常执行,而不需要等待发生故障的机器重启或者其上的服务迁移到其他机器;
  • P:机器故障、网络故障、机房停电等异常情况下仍然能够满足一致性和可用性;

分布式存储系统要求能够自动容错,即分区可容忍性总是需要满足的,因此,一致性和写操作的可用性就不能同时满足了,需要在这二者间权衡,是选择不允许丢失数据,保持强一致,还是允许少量数据丢失以获得更好的可用性;

2.4 协议

分布式协议涉及的协议很多,例如租约,复制协议,一致性协议,其中以两阶段提交协议和Paxos协议最具有代表性;

两阶段提交协议(Two-phase Commit,2PC)用以保证跨多个节点操作的原子性,即跨多个节点的操作要么在所有节点上全部执行成功,要么全部失败;

两个阶段的执行过程如下:

  • 阶段一:请求阶段(Prepare phase),在请求阶段,协调者通知事务参与者准备提交或者取消事务,然后进入表决过程;
  • 阶段二:提交阶段(Commit phase);

Paxos协议用于确保多个节点对某个投票(例如哪个节点为主节点)达成一致;

3 MogileFS

3.1 特性

  • 工作于应用层:无需特殊的核心组件;
  • 无单点:三大组件(tracker,mogstore,database)皆可实现高可用;
  • 自动文件复制:复制的最小单位不是文件,而是class;基于不同的class,文件可以被自动的复制到多个有足够存储空间的存储节点上;
  • 传输中立,无特殊协议:可以通过NFS或HTTP协议进行通信;
  • 简单的命名空间:文件通过一个给定的key来确定,是一个全局的命名空间;没有目录,基于域实现文件隔离;
  • 不共享数据:无需通过昂贵的SAN来共享磁盘,每个存储节点只需维护自己所属的存储设备(device)即可;

3.2 架构

Tracker:MogileFS的核心,是一个调度器;服务进程为mogilefsd;可以做负载均衡调度;

  • 主要职责有:
  • 数据删除;
  • 数据复制;
  • 监控:故障后生成新的数据副本;
  • 查询;

Database:Tracker访问Database,返回用户可用的Storage Node及文件的存放位置;

mogstored:数据存储的位置,通常是一个HTTP(WebDAV)服务器,用于数据的创建、删除、获取等;不可做负载均衡调度;

3.3 组成

MogileFS由3个部分组成:

server:主要包括mogilefsd和mogstored两个应用程序。

  • mogilefsd实现的是tracker,它通过数据库来保存元数据信息,包括站点domain、class、host等;
  • mogstored是存储节点(store node),它其实是个WebDAV服务,默认监听在7500端口,接受客户端的文件存储请求。

Utils(工具集):主要是MogileFS的一些管理工具,例如mogadm等;

  • 在MogileFS安装完后,要运行mogadm工具将所有的store node注册到mogilefsd的数据库里,mogilefsd会对这些节点进行管理和监控;

客户端API:MogileFS的客户端API很多,例如Perl、PHP、Java、Python等,用这个模块可以编写客户端程序,实现文件的备份管理功能等;

3.4 服务安装及启动

基本架构(在LNMT架构的基础上改进)

服务器规划

服务安装及启动

数据库授权

MariaDB [(none)]> grant all on *.* to ‘root‘@‘192.168.%.%‘ identified by ‘magedu‘;
Query OK, 0 rows affected (0.01 sec)
MariaDB [(none)]> grant all on mogdb.* to ‘moguser‘@‘192.168.%.%‘ identified by ‘mogpass‘;
Query OK, 0 rows affected (0.02 sec)
MariaDB [(none)]> flush privileges;
Query OK, 0 rows affected (0.00 sec)
MariaDB [(none)]>
grant all on *.* to ‘root‘@‘192.168.%.%‘ identified by ‘magedu‘;
grant all on mogdb.* to ‘moguser‘@‘192.168.%.%‘ identified by ‘mogpass‘;
flush privileges;

主机192.168.0.45(mogilefs+mogilestored)

# 所需程序包
[[email protected] mogilefs]# ls
MogileFS-Server-2.46-2.el6.noarch.rpm            perl-MogileFS-Client-1.14-1.el6.noarch.rpm
MogileFS-Server-mogilefsd-2.46-2.el6.noarch.rpm  perl-Net-Netmask-1.9015-8.el6.noarch.rpm
MogileFS-Server-mogstored-2.46-2.el6.noarch.rpm  perl-Perlbal-1.78-1.el6.noarch.rpm
MogileFS-Utils-2.19-1.el6.noarch.rpm
[[email protected] mogilefs]# yum install -y *.rpm perl-IO-AIO
# 修改配置文件
[[email protected] mogdata]# vi /etc/mogilefs/mogilefsd.conf # 调度器tracker的配置文件
    # Enable daemon mode to work in background and use syslog
    daemonize = 1
    # Where to store the pid of the daemon (must be the same in the init script)
    pidfile = /var/run/mogilefsd/mogilefsd.pid
    # Database connection information
    db_dsn = DBI:mysql:mogdb:host=192.168.0.45:3406    # 存储元数据的数据库信息,包括数据库mogdb及连接地址192.168.0.45:3406
    db_user = moguser     # 数据库用户名
    db_pass = mogpass     # 数据库登录密码
    # IP:PORT to listen on for mogilefs client requests
    listen = 192.168.0.45:7001
[[email protected] mogdata]# vi /etc/mogilefs/mogstored.conf # 存储节点mogstored的配置文件
    maxconns = 10000     # 最大连接数
    httplisten = 0.0.0.0:7500 # http请求监听的地址和端口
    mgmtlisten = 0.0.0.0:7501
    docroot = /var/mogdata # 存储设备挂载目录,可修改
# 准备存储设备
[[email protected] mogdata]# fdisk /dev/sda # 新建分区sda4,大小10G(实际生产环境中,此为整块磁盘,而非分区)
[[email protected] mogdata]# kpartx -af /dev/sda
[[email protected] mogdata]# partx -a /dev/sda
[[email protected] mogdata]# cat /proc/partitions # 验证分区已创建成功
[[email protected] mogdata]# mke2fs -t ext4 /dev/sda4 # 初始化分区
[[email protected] mogdata]# mkdir /var/mogdata
[[email protected] mogdata]# mount -t ext4 /dev/sda4 /var/mogdata/ # 挂载分区
[[email protected] mogdata]# mkdir /var/mogdata/dev1 # 创建存储设备dev1(注:在192.168.0.46上,此为dev2)
[[email protected] mogdata]# chown -R mogilefs.mogilefs /var/mogdata/
# 初始化数据库
[[email protected] mogdata]# mogdbsetup --dbhost=192.168.0.45 --dbport=3406 --dbrootuser=root --dbrootpass=magedu --dbuser=moguser --dbpass=mogpass --dbname=mogdb --yes
# 初始化数据库执行一次即可,故在主机192.168.0.46上无需执行此步骤
# 启动服务
[[email protected] mogilefs]# service mogilefsd start
Starting mogilefsd                                         [  OK  ]
[[email protected] mogilefs]# service mogstored start
Starting mogstored                                         [  OK  ]

主机192.168.0.46(mogilefs+mogilestored)

同上,直至mogilefsd和mogstored服务都正常启动

3.5 配置部署(任意一个tracker节点上配置即可,如192.168.0.45)

添加节点

[[email protected] mogdata]# echo "trackers = 192.168.0.45:7001" > /etc/mogilefs/mogilefs.conf # 管理程序mogadm的配置文件
[[email protected] mogdata]# mogadm host add 192.168.0.45 --ip=192.168.0.45 --status=alive # 添加节点1
[[email protected] mogdata]# mogadm host add 192.168.0.46 --ip=192.168.0.46 --status=alive # 添加节点2
[[email protected] mogilefs]# mogadm host list # 查看已添加节点
192.168.0.45 [1]: alive
  IP:       192.168.0.45:7500
192.168.0.46 [2]: alive
  IP:       192.168.0.46:7500

添加设备

[[email protected] mogdata]# mogadm device add 192.168.0.45 1 # 添加存储设备1,设备编号需与/var/mogdata目录下的dev1目录保持一致
[[email protected] mogdata]# mogadm device add 192.168.0.46 2 # 添加存储设备2,设备编号需与/var/mogdata目录下的dev2目录保持一致
[[email protected] mogdata]# mogadm device list # 查看已添加设备
192.168.0.45 [1]: alive
                    used(G)    free(G)   total(G)  weight(%)
   dev1:   alive      0.146      9.200      9.347        100
192.168.0.46 [2]: alive
                    used(G)    free(G)   total(G)  weight(%)
   dev2:   alive      0.146      9.199      9.346        100

添加domain(域)

[[email protected] mogdata]# mogadm domain add images
[[email protected] mogdata]# mogadm domain add text
[[email protected] mogdata]# mogadm domain list
 domain               class                mindevcount   replpolicy   hashtype
-------------------- -------------------- ------------- ------------ -------
 images               default                   2        MultipleHosts() NONE
 text                 default                   2        MultipleHosts() NONE

添加class(文件类别)

[[email protected] mogdata]# mogadm class add images class1 --mindevcount=2 # 在域images中添加类别class1和class2,最小文件复制份数为2
[[email protected] mogdata]# mogadm class add images class2 --mindevcount=2
[[email protected] mogdata]# mogadm class add text class1 --mindevcount=2 # 在域text中添加类别class1和class2,最小文件复制份数为2
[[email protected] mogdata]# mogadm class add text class2 --mindevcount=2
[[email protected] mogdata]# mogadm class list
 domain               class                mindevcount   replpolicy   hashtype
-------------------- -------------------- ------------- ------------ -------
 images               class1                    2        MultipleHosts() NONE
 images               class2                    2        MultipleHosts() NONE
 images               default                   2        MultipleHosts() NONE
 text                 class1                    2        MultipleHosts() NONE
 text                 class2                    2        MultipleHosts() NONE
 text                 default                   2        MultipleHosts() NONE

3.6 配置前端代理Nginx

重新编译安装nginx,添加nginx-mogilefs-module-master模块

[[email protected] tar]# cd /home/software/src/nginx-1.4.7/
[[email protected] nginx-1.4.7]# ./configure >   --prefix=/usr >   --sbin-path=/usr/sbin/nginx >   --conf-path=/etc/nginx/nginx.conf >   --error-log-path=/var/log/nginx/error.log >   --http-log-path=/var/log/nginx/access.log >   --pid-path=/var/run/nginx/nginx.pid  >   --lock-path=/var/lock/nginx.lock >   --user=nginx >   --group=nginx >   --with-http_ssl_module >   --with-http_flv_module >   --with-http_stub_status_module >   --with-http_gzip_static_module >   --http-client-body-temp-path=/var/tmp/nginx/client/ >   --http-proxy-temp-path=/var/tmp/nginx/proxy/ >   --http-fastcgi-temp-path=/var/tmp/nginx/fcgi/ >   --http-uwsgi-temp-path=/var/tmp/nginx/uwsgi >   --http-scgi-temp-path=/var/tmp/nginx/scgi >   --with-pcre >   --with-debug >   --add-module=/home/software/tar/nginx-mogilefs-module-master
[[email protected] nginx-1.4.7]# make && make install

配置Nginx,将静态文件和图片的访问都转发至后端MogileFS即可

[[email protected] nginx]# cat /etc/nginx/nginx.conf
worker_processes  2;
error_log  /var/log/nginx/nginx.error.log;
pid        /var/run/nginx.pid;
events {
    worker_connections  1024;
}
http {
    include       mime.types;
    default_type  application/octet-stream;
    log_format  main  ‘$remote_addr - $remote_user [$time_local] "$request" ‘
                      ‘$status $body_bytes_sent "$http_referer" ‘
                      ‘"$http_user_agent" "$http_x_forwarded_for"‘;
    sendfile        on;
    keepalive_timeout  65;
    fastcgi_cache_path /www/cache levels=1:2 keys_zone=fcgicache:10m inactive=5m;
    upstream mogfs_cluster { # 定义后端mogilefs集群
        server 192.168.0.45:7001;
        server 192.168.0.46:7001;
    }
    server {
        listen       4040;
        server_name  xxrenzhe.lnmmp.com;
        access_log  /var/log/nginx/nginx-img.access.log  main;
        root /www/lnmmp.com;
        valid_referers none blocked xxrenzhe.lnmmp.com *.lnmmp.com;
        if ($invalid_referer) {
            rewrite ^/ http://xxrenzhe.lnmmp.com/404.html
        }
        location ~* ^(/images/.*)$ {    # 图片访问直接转发至后端mogilefs集群
            mogilefs_tracker mogfs_cluster;
            mogilefs_domain images;    # 指定images域
            mogilefs_noverify on;
            mogilefs_pass $1 {    # 传输访问的全路径(/images/.*)
                proxy_pass $mogilefs_path;
                proxy_hide_header Content=Type;
                proxy_buffering off;
            }
        }
    }
    server {
        listen       80;
        server_name  xxrenzhe.lnmmp.com;
        access_log  /var/log/nginx/nginx-static.access.log  main;
        location / {
            root   /www/lnmmp.com;
            index  index.php index.html index.htm;
        }
        location ~* ^(/text/.*)$ {    # 文本访问直接转发至后端mogilefs集群
            mogilefs_tracker mogfs_cluster;
            mogilefs_domain text;    # 指定text域
            mogilefs_noverify on;
            mogilefs_pass $1 {    # 传输访问的全路径(/text/.*)
               proxy_pass $mogilefs_path;
               proxy_hide_header Content=Type;
               proxy_buffering off;
            }
        }
        gzip on;
        gzip_comp_level 6;
        gzip_buffers 16 8k;
        gzip_http_version 1.1;
        gzip_types text/plain text/css application/x-javascript text/xml application/xml;
        gzip_disable msie6;
    }
    server {
        listen       8080;
        server_name  xxrenzhe.lnmmp.com;
        access_log  /var/log/nginx/nginx-php.access.log  main;
        location / {
            root   /www/lnmmp.com;
            index  index.php index.html index.htm;
        }
        error_page  404              /404.html;
        error_page  500 502 503 504  /50x.html;
        location = /50x.html {
            root   /www/lnmmp.com;
        }
        location ~ \.php$ {
            root           /www/lnmmp.com;
            fastcgi_pass   127.0.0.1:9000;
          fastcgi_cache  fcgicache;
          fastcgi_cache_valid 200 302 1h;
          fastcgi_cache_valid 301 1d;
          fastcgi_cache_valid any 1m;
          fastcgi_cache_min_uses 1;
          fastcgi_cache_key $request_method://$host$request_uri;
          fastcgi_cache_use_stale error timeout invalid_header http_500;
            fastcgi_index  index.php;
            fastcgi_param  SCRIPT_FILENAME  $document_root$fastcgi_script_name;
            include        fastcgi_params;
        }
    }
}

启动nginx服务

[[email protected] nginx]# service nginx start
Starting nginx:                                            [  OK  ]

3.7 访问验证

上传文件测试分布式文件系统MogileFS的功能

[[email protected] mogdata]# mogupload --domain=images --key=‘/images/fish.jpg‘ --file="/images/fish.jpg" # 上传图片文件,选择images域
[[email protected] mogdata]# mogupload --domain=text --key=‘/text/index.html‘ --file="/text/index.html" # 上传文本文件,选择text域
[[email protected] mogdata]# moglistkeys --domain=images # 列出已添加的key
/images/fish.jpg
[[email protected] mogdata]# moglistkeys --domain=text
/text/index.html
[[email protected] mogdata]# mogfileinfo --domain=images --key=‘/images/fish.jpg‘ # 查看已添加文件的具体信息,包括实际可访问地址
- file: /images/fish.jpg
     class:              default
  devcount:                    2
    domain:               images
       fid:                    9
       key:     /images/fish.jpg
    length:                 3225
 - http://192.168.0.45:7500/dev1/0/000/000/0000000009.fid
 - http://192.168.0.46:7500/dev2/0/000/000/0000000009.fid
[[email protected] mogdata]# mogfileinfo --domain=text --key=‘/text/index.html‘
- file: /text/index.html
     class:              default
  devcount:                    2
    domain:                 text
       fid:                    8
       key:     /text/index.html
    length:                   15
 - http://192.168.0.46:7500/dev2/0/000/000/0000000008.fid
 - http://192.168.0.45:7500/dev1/0/000/000/0000000008.fid

说明:直接访问mogilefs提供的文件存储路径,访问正常;

结合Nginx,从前端访问测试

说明:通过前端Nginx访问图片和文本文件一切正常,实现了对前端访问的透明性;

3.8 后续扩展

结合LNMT的架构,再通过Haproxy进行前端调度,就可以使用MogileFS这个分布式存储系统完全替代NFS,实现对图片文件和文本文件的存储和读写;

鉴于MogileFS的无目录性,无法直接挂载使用,故向mogilefs集群中添加文件则需要程序通过API调用上传(upload)文件,虽然对于运维人员有点不方便,但也保证了一定的高效性;

如果想体验直接挂载使用分布式文件系统的乐趣,则可以尝试使用MooseFS,在此就不多说了!

Web集群实现共享存储的架构演变及MogileFS,布布扣,bubuko.com

时间: 2024-10-12 20:22:40

Web集群实现共享存储的架构演变及MogileFS的相关文章

web集群 session共享处理

关于session的设置,本博客里有一篇文章介绍了,但集群共享处理,此处认真对待: 首先:设置session      //http://www.cnblogs.com/zhongyuan/archive/2012/11/09/2762166.html 在php.ini中关于session session.save_handler = files  或者 user 或者 memcache   //这里三个参数分别表示 session 存储在 本地文件里  数据库里  memcache里: ses

RHCS+Conga+GFS+cLVM共享存储的高可用性web集群

一.RHCS简介: RHCS是Red Hat ClusterSuite的缩写. RHCS是一个功能完备的集群应用解决方案,它从应用的前端访问到后端的数据存储都提供了一个行之有效的集群架构实现,通过RHCS提供的这种解决方案,不但能保证前端应用持久.稳定的提供服务,同时也保证了后端数据存储的安全. RHCS集群的组成: RHCS是一个集群套件,其主要包括以下几部分: 1.集群构架管理器:RHCS的基础套件,提供集群的基本功能,主要包括布式集群管理器(CMAN).锁管理(DLM).配置文件管理(CC

Linux运维需要懂什么web集群架构知识?

Linux运维需要懂什么web集群架构知识? 在充斥着各种的互联网+的数字时代,IT运维方面也越来越趋于Linux系统的应用,掌握 Linux 运维技术已成为IT 技术人员的必经之路,但是,构建在Linux系统上的高性能.高并发企业级网站集群架构上的网站集群架构,又会涉及到哪些具体的内容呢? 1.需要学习与Linux 相关的基础且重要的知识 Linux 的历史沿革.Linux 的企业级选型.学习环境的搭建.Linux 的企业级系统安装.Linux 系统的基础优化,以及远程连接Linux 及客户端

了解Linux运维要用到的web集群架构知识

了解Linux运维要用到的web集群架构知识 在充斥着各种的互联网+的数字时代,IT运维方面也越来越趋于Linux系统的应用,掌握 Linux 运维技术已成为IT 技术人员的必经之路,但是,构建在Linux系统上的高性能.高并发企业级网站集群架构上的网站集群架构,又会涉及到哪些具体的内容呢? 1.需要学习与Linux 相关的基础且重要的知识 Linux 的历史沿革.Linux 的企业级选型.学习环境的搭建.Linux 的企业级系统安装.Linux 系统的基础优化,以及远程连接Linux 及客户端

解决web集群多节点访问共享存储权限问题

1.所有web集群节点的用户统一uid 例如888,用户最好也统一 针对我们当次的问题: Apache server:    useradd -u 888 -s /sbin/nologin -M www    chown -R www.www /application/apache/html/    chown -R www 挂载点 Nginx server:    useradd -u 888 -s /sbin/nologin -M nginx    chown -R nginx 挂载点   

Linux网络服务--LAMP+Nginx+Squid搭建web集群

一.         项目名称         LAMP+Nginx+Squid搭建web集群环境 二.         项目拓扑 三.         项目描述 3.1 项目环境 某部队为了满足信息化政治工作建设需要,用以丰富官兵日常生活内容,活化教育形式,更好的建设部队人文环境,准备架设部队内部的网站服务器,并申请使用军内公网IP:1.1.1.1 基于以上情况为该部提出以下解决方案.   3.2 实施方案 3.2.1  服务器操作系统与软件版本选择 操作系统选择RedHat企业版5.10:

Web集群部署(Nginx+Keepalived+Varnish+LAMP+NFS)

Web集群部署(Nginx+Keepalived+Varnish+LAMP+NFS)  一.服务介绍   1.1 Nginx服务 Nginx是一个高性能的HTTP和反向代理服务器,也是一个支持IMAP/POP3/SMTP的代理服务器.Nginx即支持Web服务正向代理,也支持反向代理,尤其是反向代理功能十分强大.Nginx支持缓存功能,负载均衡,FASTCGI协议,支持第三方模块.时下Nginx的Web反向代理功能非常流行.   1.2 Keepalived     Keepalived见名知意

corosync+pacemaker+crmsh的高可用web集群的实现

网络规划: node1:eth0:172.16.31.10/16 node2: eth0: 172.16.31.11/16 nfs:   eth0: 172.16.31.12/15 注: nfs在提供NFS服务的同时是一台NTP服务器,可以让node1和node2同步时间的. node1和node2之间心跳信息传递依靠eth0传递 web服务器的VIP是172.16.31.166/16 架构图:跟前文的架构一样,只是节点上安装的高可用软件不一致: 一.高可用集群构建的前提条件 1.主机名互相解析

Linux运维web集群需要了解什么内容?

Linux运维web集群需要了解什么内容?? 在充斥着各种的互联网+的数字时代,IT运维方面也越来越趋于Linux系统的应用,掌握 Linux 运维技术已成为IT 技术人员的必经之路,但是,构建在Linux系统上的高性能.高并发企业级网站集群架构上的网站集群架构,又会涉及到哪些具体的内容呢? 1.需要学习与Linux 相关的基础且重要的知识 Linux 的历史沿革.Linux 的企业级选型.学习环境的搭建.Linux 的企业级系统安装.Linux 系统的基础优化,以及远程连接Linux 及客户端