gh-ost —— GitHub Online DDL 工具使用详解

目录

  • 1.简介
  • 2.为什么不用触发器 ?
  • 3.命名由来
  • 4.亮点
  • 5.使用
  • 6.它是如何工作的?
  • 7.工作模式
    • 7.1.模式1 —— 连上从库,在主库上修改
    • 7.2.模式2 —— 直接在主库上修改
    • 7.3.模式3 —— 在从库上修改和测试
  • 8.下载
  • 9.参数说明
  • 10.实际操作
    • 10.1. DDL执行过程

      • 10.1.1. 单实例上DDL
      • 10.1.2. 主从上DDL
      • 10.1.3.在从上进行DDL测试
      • 10.1.4.额外说明:终止、暂停、限速
  • 11.建议
  • 12.更多的小贴士
  • 13.更多

GitHub’s online schema migration for MySQL
项目地址:gh-ost

1.简介

  • gh-ost是一个无触发器的MySQL schema在线迁移解决方案。它是可测试的,并提供了可用性、动态控制/重新配置、审计和许多操作功能。
  • 在整个迁移过程中,gh-ost在主库上产生的工作负载较轻,与迁移表上的现有工作负载解耦。
  • 它是根据多年使用现有解决方案的经验设计的,并更改了表迁移的范例。

2.为什么不用触发器 ?

  • 已存在的工具有:

    • pt-osc
    • Facebook OSC
    • LHM
    • oak-online-alter-table
  • 它们都使用触发器将表上的活动,传输更新到正在缓慢同步的鬼/影表。这些工具的工作方式不尽相同:大多数工具使用同步方法(应用于ghost表的所有更改),而Facebook工具使用异步方法(将更改追加到更改日志表,稍后将审查并应用于ghost表)。
  • 触发器的使用简化了动态表迁移中的许多流程,但也带来了一些限制或困难。以下是我们选择为模式迁移设计无触发解决方案design a triggerless solution的原因。

3.命名由来

  • 最初它被命名为gh-osc: GitHub Online Schema Change,类似于Facebook online schema change和pt-online-schema-change。

    但后来发生了一种罕见的基因突变,c变成了t。这让我们走上了寻找一个新的缩略词的道路。gh-ost(发音:Ghost),代表GitHub的在线模式转换器/变形器。

4.亮点

  • 通过在从库上测试gh-ost来建立您对它的信任。gh-ost将发出与主表相同的流,迁移复制表上的表,而不实际替换原始表,将复制表保留为两个表,然后您可以比较并确信该工具操作正确。这就是我们在生产中不断测试gh-ost的方法。
  • 真正的暂停:当gh-ost停止throttles时,它真正停止对master上的写:没有行复制,也没有正在进行的事件处理。通过节流,可以将主服务器返回到其原始工作负载
  • 动态控制:即使迁移仍在运行,您也可以交互式interactively地重新配置gh-ost。您可以强制启动节流
  • 审计:您可以查询gh-ost的状态。在unix套接字或TCP上监听gh-ost
  • 切换阶段的控制:可以指示gh-ost推迟可能是最关键的步骤:表的交换,直到您可以方便地使用为止。没有必要担心ETA在办公时间之外
  • 外部挂载hooks可以将gh-ost与您的特定环境结合起来

5.使用

  • 详细说明都在

    cheatsheet

    。您可能对以各种模式调用gh-ost感兴趣:

    • noop迁移(仅仅测试迁移是有效的和良好的)
    • 使用从库进行的真正迁移(如果您的主库使用基于语句的复制,则需要在主库上运行;gh-ost可以识别涉及的服务器的身份。)
    • 一个真正的迁移,直接在主库上运行(但是gh-ost更喜欢前者)
    • 在从库上做真实迁移(主版本未受影响)
    • 在从库上做测试迁移,您可以通过这种方式与gh-ost的操作建立信任。

6.它是如何工作的?

  • 所有现有的在线模式变更工具以类似的方式操作:他们创建一个与你原始表相似的ghost表,缓慢而逐步将数据从原始表复制到ghost表,同时不断传输增量 (任何insert、delete、update应用到你的表)到ghost表。
  • 最后,在适当的时候,它们会用ghost表替换原来的表。
  • gh-ost使用相同的模式。但是,它不同于所有现有的工具,不使用触发器。我们已经认识到触发器是许多限制和风险的根源many limitations and risks
  • 相反,gh-ost使用binlog流捕获表更改uses the binary log stream,并异步地将它们应用到ghost表。gh-ost承担了一些其他工具留给数据库执行的任务。因此,gh-ost对迁移过程有更大的控制:可以真正暂停、可以真正地将迁移的写负载与主工作负载分离。
  • 此外,它还提供了许多操作上的好处operational perks,使它更安全、更值得信赖、使用起来更有趣。

gh-ost 首先连接到主库上,根据 alter 语句创建幽灵表,然后作为一个”备库“连接到其中一个真正的备库上,一边在主库上拷贝已有的数据到幽灵表,一边从备库上拉取增量数据的 binlog,然后不断的把 binlog 应用回主库。图中 cut-over 是最后一步,锁住主库的源表,等待 binlog 应用完毕,然后替换 gh-ost 表为源表。gh-ost 在执行中,会在原本的 binlog event 里面增加以下 hint 和心跳包,用来控制整个流程的进度,检测状态等。这种架构带来诸多好处,例如:

  • 整个流程异步执行,对于源表的增量数据操作没有额外的开销,高峰期变更业务对性能影响小。
  • 降低写压力,触发器操作都在一个事务内,gh-ost 应用 binlog 是另外一个连接在做。
  • 可停止,binlog 有位点记录,如果变更过程发现主库性能受影响,可以立刻停止拉binlog,停止应用 binlog,稳定之后继续应用。
  • 可测试,gh-ost 提供了测试功能,可以连接到一个备库上直接做 Online DDL,在备库上观察变更结果是否正确,再对主库操作,心里更有底。

7.工作模式

  • gh-ost 根据参数配置可选三种变更模式
  • 除了直连主库和连接从库以外,还有连接从库做变更测试

7.1.模式1 —— 连上从库,在主库上修改

  • 这是 gh-ost 默认的工作模式,它会查看从库情况,找到集群的主库并且连接上去。修改操作的具体步骤是
    • 在主库上读写行数据;
    • 在从库上读取二进制日志事件,将变更应用到主库上;
    • 在从库上查看表格式、字段、主键、总行数等;
    • 在从库上读取 gh-ost 内部事件日志(比如心跳);
    • 在主库上完成表切换;
  • 如果主库的二进制日志格式是 statement,就可以使用这种模式。但从库就必须配成启用二进制日志(log_bin, log_slave_updates),还要设成 Row 格式(binlog_format=ROW),实际上 gh-ost 会在从库上帮你做这些设置。
  • 事实上,即使把从库改成 Row 格式,这仍然是对主库侵入最少的工作模式。

7.2.模式2 —— 直接在主库上修改

  • 如果没有从库,或者不想在从库上操作,那直接用主库也是可以的。gh-ost 就会在主库上直接做所有的操作。仍然可以在上面查看主从复制延迟。
    • 主库必须产生 Row 格式的二进制日志;
    • 启动 gh-ost 时必须用 --allow-on-master 选项来开启这种模式;

7.3.模式3 —— 在从库上修改和测试

  • 这种模式会在从库上做修改。gh-ost 仍然会连上主库,但所有操作都是在从库上做的,不会对主库产生任何影响。在操作过程中,gh-ost 也会不时地暂停,以便从库的数据可以保持最新。
    • --migrate-on-replica 选项让 gh-ost 直接在从库上修改表。最终的切换过程也是在从库正常复制的状态下完成的。
    • --test-on-replica 表明操作只是为了测试目的。在进行最终的切换操作之前,复制会被停止。原始表和临时表会相互切换,再切换回来,最终相当于原始表没被动过。主从复制暂停的状态下,你可以检查和对比这两张表中的数据。

8.下载

9.参数说明

option meaning default value
--aliyun-rds 是否在阿里云数据库上执行 true
--allow-master-master 是否允许gh-ost运行在双主复制架构中,一般与 --assume-master-host参数一起使用
--allow-nullable-unique-key 允许 gh-ost 在数据迁移依赖的唯一键可以为NULL,默认为不允许为NULL的唯一键。如果数据迁移(migrate)依赖的唯一键允许NULL值,则可能造成数据不正确,请谨慎使用
--allow-on-master 允许gh-ost直接运行在主库上。不加该参数 gh-ost 默认连接的从库
--alter string DDL语句
--approve-renamed-columns ALTER 如果你修改一个列的名字,gh-ost将会识别到并且需要提供重命名列名的原因,默认情况下gh-ost是不继续执行的,除非提供-approve-renamed-columns ALTER
--ask-pass MySQL密码
--assume-master-host 为gh-ost指定一个主库,格式为”ip:port”或者”hostname:port”。在这主主架构里比较有用,或则在gh-ost发现不到主的时候有用
--assume-rbr 确认gh-ost连接的数据库实例的binlog_format=ROW的情况下,可以指定-assume-rbr,这样可以禁止从库上运行stop slave,start slave,执行gh-ost用户也不需要SUPER权限
--check-flag
--chunk-size 在每次迭代中处理的行数量(允许范围:100-100000) 1000
--concurrent-rowcount 该参数如果为True,则进行row-copy之后,估算统计行数(使用explain select count(*)方式),并调整ETA时间,否则,gh-ost首先预估统计行数,然后开始row-copy true
--conf gh-ost的配置文件路径
--critical-load string 一系列逗号分隔的status-name=values组成,当MySQL中status超过对应的values,gh-ost将会退出。-critical-load Threads_connected=20,Connections=1500,指的是当MySQL中的状态值Threads_connected>20,Connections>1500的时候,gh-ost将会由于该数据库严重负载而停止并退出
--critical-load-hibernate-seconds 负载达到critical-load时,gh-ost在指定的时间内进入休眠状态。 它不会读/写任何来自任何服务器的任何内容
--critical-load-interval-millis 当值为0时,当达到-critical-load,gh-ost立即退出。当值不为0时,当达到-critical-load,gh-ost会在-critical-load-interval-millis秒数后,再次进行检查,再次检查依旧达到-critical-load,gh-ost将会退出
--cut-over 选择cut-over类型:atomic/two-step,atomic(默认)类型的cut-over是github的算法,two-step采用的是facebook-OSC的算法
--cut-over-exponential-backoff
--cut-over-lock-timeout-seconds gh-ost在cut-over阶段最大的锁等待时间,当锁超时时,gh-ost的cut-over将重试 3
--database string 数据库名
--debug debug模式
--default-retries 各种操作在panick前重试次数 60
--discard-foreign-keys 该参数针对一个有外键的表,在gh-ost创建ghost表时,并不会为ghost表创建外键。该参数很适合用于删除外键,除此之外,请谨慎使用
--dml-batch-size 在单个事务中应用DML事件的批量大小(范围1-100) 1
--exact-rowcount 准确统计表行数(使用select count(*)的方式),得到更准确的预估时间
--execute 实际执行alter&migrate表,默认为noop,不执行,仅仅做测试并退出,如果想要ALTER TABLE语句真正落实到数据库中去,需要明确指定-execute
--exponential-backoff-max-interval
--force-named-cut-over 如果为true,则unpostpone / cut-over交互式命令必须命名迁移的表
--force-table-names 在临时表上使用的表名前缀
--heartbeat-interval-millis gh-ost心跳频率值 500
--hooks-hint 任意消息通过 GH_OST_HOOKS_HINT 注入到 hook
--hooks-path hook文件存放目录(默认为empty,即禁用hook)。hook会在这个目录下寻找符合约定命名的hook文件来执行
--host MySQL IP/hostname
--initially-drop-ghost-table gh-ost操作之前,检查并删除已经存在的ghost表。该参数不建议使用,请手动处理原来存在的ghost表。默认该参数,gh-ost直接退出操作 不启用
--initially-drop-old-table gh-ost操作之前,检查并删除已经存在的旧表。该参数不建议使用,请手动处理原来存在的ghost表。默认,gh-ost直接退出操作 不启用
--initially-drop-socket-file gh-ost强制删除已经存在的socket文件。该参数不建议使用,可能会删除一个正在运行的gh-ost程序,导致DDL失败
--master-password MySQL 主密码
--master-user MysQL主账号
--max-lag-millis 主从复制最大延迟时间,当主从复制延迟时间超过该值后,gh-ost将采取节流(throttle)措施 1500s
--max-load 逗号分隔状态名称=阈值,如:‘Threads_running=100,Threads_connected=500‘. When status exceeds threshold, app throttles writes
--migrate-on-replica gh-ost的数据迁移(migrate)运行在从库上,而不是主库上
--nice-ratio 每次chunk时间段的休眠时间,范围[0.0…100.0]。0:每个chunk时间段不休眠,即一个chunk接着一个chunk执行;1:每row-copy 1毫秒,则另外休眠1毫秒;0.7:每row-copy 10毫秒,则另外休眠7毫秒
--ok-to-drop-table gh-ost操作结束后,删除旧表,默认状态是不删除旧表,会存在_tablename_del表
--panic-flag-file 当这个文件被创建,gh-ost将会立即退出
--password MySQL密码
--port MySQL端口,最好用从库
--postpone-cut-over-flag-file 当这个文件存在的时候,gh-ost的cut-over阶段将会被推迟,数据仍然在复制,直到该文件被删除
--quiet 静默模式
--replica-server-id gh-ost的server_id
--replication-lag-query 弃用
--serve-socket-file gh-ost的socket文件绝对路径
--serve-tcp-port gh-ost使用端口,默认为关闭端口
--skip-foreign-key-checks 确定你的表上没有外键时,设置为‘true‘,并且希望跳过gh-ost验证的时间-skip-renamed-columns ALTER
--skip-renamed-columns ALTER 如果你修改一个列的名字(如change column),gh-ost将会识别到并且需要提供重命名列名的原因,默认情况下gh-ost是不继续执行的。该参数告诉gh-ost跳该列的数据迁移,让gh-ost把重命名列作为无关紧要的列。该操作很危险,你会损失该列的所有值
--stack 添加错误堆栈追踪
--switch-to-rbr 让gh-ost自动将从库的binlog_format转换为ROW格式
--table 表名
--test-on-replica 在从库上测试gh-ost,包括在从库上数据迁移(migration),数据迁移完成后stop slave,原表和ghost表立刻交换而后立刻交换回来。继续保持stop slave,使你可以对比两张表
--test-on-replica-skip-replica-stop 当-test-on-replica执行时,该参数表示该过程中不用stop slave
--throttle-additional-flag-file 当该文件被创建后,gh-ost操作立即停止。该参数可以用在多个gh-ost同时操作的时候,创建一个文件,让所有的gh-ost操作停止,或者删除这个文件,让所有的gh-ost操作恢复
--throttle-control-replicas 列出所有需要被检查主从复制延迟的从库
--throttle-flag-file 当该文件被创建后,gh-ost操作立即停止。该参数适合控制单个gh-ost操作。-throttle-additional-flag-file string适合控制多个gh-ost操作
--throttle-http
--throttle-query string 节流查询。每秒钟执行一次。当返回值=0时不需要节流,当返回值>0时,需要执行节流操作。该查询会在数据迁移(migrated)服务器上操作,所以请确保该查询是轻量级的
--timestamp-old-table 在旧表名中使用时间戳。 这会使旧表名称具有唯一且无冲突的交叉迁移
--tungsten 告诉gh-ost你正在运行的是一个tungsten-replication拓扑结构
--user MYSQL用户
--verbose
--version

10.实际操作

  • 使用说明:条件是操作的MySQL上需要的binlog模式是ROW。如果在一个从上测试也必须是ROW模式,还要开启log_slave_updates。根据上面的参数说明按照需求进行调整
  • 环境:主库:192.168.1.101;从库:192.168.1.102

10.1. DDL执行过程

  • 校验阶段:

    • 检查有没有外键和触发器。
    • 检查表的主键信息。
    • 检查是否主库或从库,是否开启 log_slave_updates,以及 binlog 信息
    • 检查 gho 和 del 结尾的临时表是否存在
    • 创建 ghc 结尾的表,存数据迁移的信息,以及 binlog 信息等
  • 初始化 stream 的连接,添加 binlog 的监听
  • 迁移阶段:
    • 创建 gho 结尾的临时表,执行 DDL 在 gho 结尾的临时表上
    • 开启事务,按照主键id把源表数据写入到 gho 结尾的表上,再提交,以及binlog apply
  • cut-over 阶段:
    • lock 源表,rename 表:rename 源表 to 源 _del 表,gho 表 to 源表
    • 清理 ghc 表

10.1.1. 单实例上DDL

  • 单个实例相当于主库,需要开启--allow-on-master参数和ROW模式
gh-ost --user="root" --password="root" --host=192.168.1.101  --database="test" --table="t1"
 --alter="ADD COLUMN cc2 varchar(10),add column cc3 int not null default 0 comment 'test' " --allow-on-master  --execute

10.1.2. 主从上DDL

  • 有2个选择,一是按照1直接在主上执行同步到从上,另一个连接到从库,在主库做迁移(只要保证从库的binlog为ROW即可,主库不需要保证)
gh-ost --user="root" --password="root" --host=192.168.1.102  --database="test" --table="t" --initially-drop-old-table
 --alter="ADD COLUMN y1 varchar(10),add column y2 int not null default 0 comment 'test' "  --execute
  • 此时的操作大致是:

    • 行数据在主库上读写
    • 读取从库的二进制日志,将变更应用到主库
    • 在从库收集表格式,字段&索引,行数等信息
    • 在从库上读取内部的变更事件(如心跳事件)
    • 在主库切换表
  • 在执行DDL中,从库会执行一次 stop/start slave,要是确定从的 binlog 是 ROW 的话可以添加参数:--assume-rbr。如果从库的 binlog 不是 ROW,可以用参数 --switch-to-rbr 来转换成 ROW,此时需要注意的是执行完毕之后,binlog 模式不会被转换成原来的值。--assume-rbr 和 --switch-to-rbr 参数不能一起使用。

10.1.3.在从上进行DDL测试

gh-ost --user="root" --password="root" --host=192.168.1.102  --database="test" --table="t"
 --alter="ADD COLUMN abc1 varchar(10),add column abc2 int not null default 0 comment 'test' " --test-on-replica  --switch-to-rbr --execute
  • 参数--test-on-replica:在从库上测试gh-ost,包括在从库上数据迁移 (migration),数据迁移完成后 stop slave,原表和 ghost 表立刻交换而后立刻交换回来。继续保持 stop slave,使你可以对比两张表。如果不想 stop slave,则可以再添加参数:--test-on-replica-skip-replica-stop
  • 上面三种是 gh-ost 操作模式,上面的操作中,到最后不会清理临时表,需要手动清理,再下次执行之前果然临时表还存在,则会执行失败,可以通过参数进行删除:
    • --initially-drop-ghost-table:gh-ost操作之前,检查并删除已经存在的ghost表。该参数不建议使用,请手动处理原来存在的ghost表。默认不启用该参数,gh-ost直接退出操作。
    • --initially-drop-old-table:gh-ost操作之前,检查并删除已经存在的旧表。该参数不建议使用,请手动处理原来存在的ghost表。默认不启用该参数,gh-ost直接退出操作。
    • --initially-drop-socket-file:gh-ost强制删除已经存在的socket文件。该参数不建议使用,可能会删除一个正在运行的gh-ost程序,导致DDL失败。
    • --ok-to-drop-table:gh-ost操作结束后,删除旧表,默认状态是不删除旧表,会存在_tablename_del表。
  • 还有其他的一些参数,比如:--exact-rowcount、--max-lag-millis、--max-load 等等,可以看上面的说明,具体大部分常用的参数命令如下:
gh-osc --user= --password= --host= --database= --table= --max-load=Threads_running=30, --chunk-size=1000 --serve-socket-file=/tmp/gh-ost.test.sock
 --exact-rowcount --allow-on-master/--test-on-replica --initially-drop-ghost-table/--initially-drop-old-table/--initially-drop-socket-file
 --max-lag-millis= --max-load='Threads_running=100,Threads_connected=500' --ok-to-drop-table

10.1.4.额外说明:终止、暂停、限速

gh-ost --user="root" --password="root" --host=192.168.1.101  --database="test" --table="t1"
 --alter="ADD COLUMN o2 varchar(10),add column o1 int not null default 0 comment 'test' " --exact-rowcount
 --serve-socket-file=/tmp/gh-ost.t1.sock --panic-flag-file=/tmp/gh-ost.panic.t1.flag  --postpone-cut-over-flag-file=/tmp/ghost.postpone.t1.flag
 --allow-on-master  --execute
  • 表示文件终止运行--panic-flag-file

    • 创建文件终止运行,例子中创建 /tmp/gh-ost.panic.t1.flag 文件,终止正在运行的 gh-ost,临时文件清理需要手动进行
  • 表示文件禁止cut-over进行,即禁止表名切换,数据复制正常进行。--postpone-cut-over-flag-file
    • 创建文件延迟cut-over进行,即推迟切换操作。例子中创建/tmp/ghost.postpone.t1.flag文件,gh-ost 会完成行复制,但并不会切换表,它会持续的将原表的数据更新操作同步到临时表中。
  • 使用socket监听请求,操作者可以在命令运行后更改相应的参数。--serve-socket-file,--serve-tcp-port(默认关闭)
  • 创建socket文件进行监听,通过接口进行参数调整,当执行操作的过程中发现负载、延迟上升了,不得不终止操作,重新配置参数,如 chunk-size,然后重新执行操作命令,可以通过scoket接口进行动态调整。如:

10.1.4.1.暂停操作:

#暂停
echo throttle | socat - /tmp/gh-ost.test.t1.sock
#恢复
echo no-throttle | socat - /tmp/gh-ost.test.t1.sock

10.1.4.2.修改限速参数:

echo chunk-size=100 | socat - /tmp/gh-ost.t1.sock
echo max-lag-millis=200 | socat - /tmp/gh-ost.t1.sock
echo max-load=Thread_running=3 | socat - /tmp/gh-ost.t1.sock

11.建议

  • Testing above all,尝试 --test-on-replica前几次。更好的是,让它继续运行。我们有多个从库,在这些从库中,我们迭代所有的生产表,逐个迁移它们,检查和结果,验证迁移是好的。
  • 对于每个主库迁移,首先发出一个noop
  • 然后通过——问题的执行

12.更多的小贴士

  • 使用 --exact-rowcount获取精确的提示
  • 使用 --postpone-cut-over-flag-file控制切换时机
  • 熟悉交互式命令interactive commands

13.更多

原文地址:https://www.cnblogs.com/David-domain/p/11176302.html

时间: 2024-10-11 04:00:35

gh-ost —— GitHub Online DDL 工具使用详解的相关文章

Linux 性能测试工具Lmbench详解

Linux 性能测试工具Lmbench详解 2010-06-04 16:07 佚名 评测中心 字号:T | T Lmbench 是一套简易可移植的,符合ANSI/C 标准为UNIX/POSIX 而制定的微型测评工具.一般来说,它衡量两个关键特征:反应时间和带宽.Lmbench 旨在使系统开发者深入了解关键操作的基础成本. AD:2014WOT全球软件技术峰会北京站 课程视频发布 Linux 性能测试工具Lmbench 是一套简易可移植的,符合ANSI/C 标准为UNIX/POSIX 而制定的微型

Android APK优化工具Zipalign详解

最近在googl play上发布apk要优化 Android SDK中包含一个"zipalign"的工具,它能够对打包的应用程序进行优化.在你的应用程序上运行zipalign,使得在运行时Android与应用程序间的交互更加有效率.因此,这种方式能够让应用程序和整个系统运行得更快.我们强烈推荐在新的和已经发布的程序上使用zipalign工具来得到优化后的版本 一.这里下载android SDK,只为了用他的zipalign工具,当然什么时候大家有兴趣了用来开发两个小程序也是很简单的 A

【转】Linux命令工具 top详解

Linux命令工具 top详解 top命令是Linux下常用的性能分析工具,能够实时显示系统中各个进程的资源占用状况,类似于Windows的任务管理器.top是一个动态显示过程,即可以通过用户按键来不断刷新当前状态.如果在前台执行该命令,它将独占前台,直到用户终止该程序为止.比较准确的说,top命令提供了实时的对系统处理器的状态监视.它将显示系统中CPU最"敏感"的任务列表.该命令可以按CPU使用.内存使用和执行时间对任务进行排序:而且该命令的很多特性都可以通过交互式命令或者在个人定制

抓包工具Fidder详解(主要来抓取Android中app的请求)

抓包工具Fidder详解(主要来抓取Android中app的请求) 今天闲着没吊事,来写一篇关于怎么抓取Android中的app数据包?工欲行其事,必先利其器,上网google了一下,发现了一款神器:Fiddler,这个貌似是所有软件开发者必备神器呀!这款工具不仅可以抓取PC上开发web时候的数据包,而且可以抓取移动端(Android,Iphone,WindowPhone等都可以),太强大了,以前搞web的时候,知道有一款叫做HttpWatch工具,可以抓取web的请求数据包的,但是和这款神器来

Github Pls Forget Me —— .gitignore详解

忽略某些文件 一般我们总会有些文件无需纳入 Git 的管理,也不希望它们总出现在未跟踪文件列表.通常都是些自动生成的文件,比如日志文件,或者编译过程中创建的临时文件等.我们可以创建一个名为 .gitignore 的文件,列出要忽略的文件模式.来看一个实际的例子: $ cat .gitignore     *.[oa]     *~ 第一行告诉 Git 忽略所有以 .o 或 .a 结尾的文件.一般这类对象文件和存档文件都是编译过程中出现的,我们用不着跟踪它们的版本.第二行告诉 Git 忽略所有以波

Linux命令工具 top详解

top命令是Linux下常用的性能分析工具,能够实时显示系统中各个进程的资源占用状况,类似于Windows的任务管理器.top是一个动态显示过程,即可以通过用户按键来不断刷新当前状态.如果在前台执行该命令,它将独占前台,直到用户终止该程序为止.比较准确的说,top命令提供了实时的对系统处理器的状态监视.它将显示系统中CPU最"敏感"的任务列表.该命令可以按CPU使用.内存使用和执行时间对任务进行排序:而且该命令的很多特性都可以通过交互式命令或者在个人定制文件中进行设定. 常在linux

轻量级高可用实现工具--keepalived详解

一 .keepalived简介 keepalived:它的诞生最初是为ipvs(一些服务,内核中的一些规则)提供高可用性的,最初最主要目的是能够自主调用ipvsadm来生成规则,并且能够自动实现将用户访问的地址转移到其他节点上进行实现的. keepalived:核心包含两个ckechers和VRRP协议. ckeckers #检查服务检查reserved的健康状况的,基于脚本也可以服务本身的健康状况.这里是实现ipvs后端健康状况的检测的. VRRP # Virtual Router Redun

引导工具GRUB详解

引导工具GRUB详解 导读 引导程序是驻留在硬盘第一个扇区(MPR.主引导记录)的程序.GRUB是一个功能强大的多系统引导程序,专门处理Linux与其它操作系统共存的问题.下面就由我介绍一下grub.conf文件里的具体内容及其含义. 使用一下命令可以查看grub.conf文件内容: #vi /boot/grub/menu.lst 参数解释 1. default=0 # default后加一个数字n,表示n+1个"title"操作系统,0表示第一个"title"?的

xtrabackup备份工具使用详解

xtrabackup备份工具使用详解 innobackupex: 需要MySQL服务处于运行状态 [percona]下载 wget https://www.percona.com/downloads/XtraBackup/XtraBackup-2.1.8/RPM/rhel6/x86_64/percona-xtrabackup-2.1.8-733.rhel6.x86_64.rpm wget https://www.percona.com/downloads/percona-toolkit/2.2.