云计算之路-阿里云上:一夜之间竞价服务器全没了

最近我们在服务器部署上使用了一些阿里云竞价服务器,比如在负载均衡中使用包年包月服务器与竞价服务器相结合,服务器部署调整时先用竞价服务器临时顶替一下。使用竞价服务器最大的风险是随时可能会被释放,今天之前我们只遇到过1次竞价服务器被释放的情况,那次被释放了2台,也是在周五,看来周五是一个竞价的高峰,使用竞价服务器的朋友需留意。

今天早晨我们吃惊的发现,所有的竞价服务器全没了,一丝痕迹都没有留下,只有 5:35 收到的多条告别短信:

【阿里云】尊敬的用户,您好!您竞价购买的实例: i-bp1glob57mdslykpz2vq即将进入释放状态,请您登录云主机保存系统内数据。谢谢

原来所有的竞价服务器同时被释放了,无一幸免。

这些服务器的不辞而别,本来不会带来问题。可是,不争气的 docker swarm 不能正确面对朝夕相伴的老友不辞而别,在剩下 3 个 manager 节点的情况下,在早上的访问低峰 7:20 左右竟然宕机了。。。我们发现后,本以为在这样的访问低峰重启节点可以恢复,结果不凑效,只能重建集群,在重建集群又遇到了麻烦,一直到 8:20 左右才恢复正常。

与此同时,由于昨天忙于处理故障,我们的找找看索引服务器未及时由竞价服务器更换为包月服务器也被释放了,造成搜索站点故障,到 9:15 左右才恢复。

又要和大家说抱歉,请大家再次谅解由此给您带来的麻烦!

有时真的很奇怪,问题们似乎商量好的结伴而来,让人难以招架,但我们知道每当出现这样的问题们的团聚,是对我们解决问题能力的考验与挑战,只要战胜它们,就是一次成长的飞跃。

原文地址:https://www.cnblogs.com/cmt/p/8580386.html

时间: 2024-11-05 20:33:54

云计算之路-阿里云上:一夜之间竞价服务器全没了的相关文章

云计算之路-阿里云上:弹性伸缩无服务器可弹,已有服务器无兵可援

活动起因: A scheduled task executes scaling rule "eBsJ2veNkwJkcGinmICVH1Q", changing the Total Capacity from "0" to "1". 详细信息: Fail to create Instance into scaling group("The requested resource is sold out in the specified z

云计算之路-阿里云上:Wireshark抓包分析一个耗时20秒的请求

这篇博文分享的是我们针对一个耗时20秒的请求,用Wireshark进行抓包分析的过程. 请求的流程是这样的:客户端浏览器 -> SLB(负载均衡) -> ECS(云服务器) -> SLB -> 客户端浏览器. 下面是分析的过程: 1. 启动Wireshark,针对内网网卡进行抓包. 2. 在IIS日志中找出要分析的请求(借助Log Parser Studio) 通过c-ip(Client IP Address)可以获知SLB的内网IP,在分析Wireshar抓包时需要依据这个IP进

云计算之路-阿里云上:超过70秒的请求抓包分析

超过70秒的请求是通过分析IIS日志发现的: 10.159.63.104是SLB的内网IP. 通过Wireshark抓包分析请求是9:22:21收到的(tcp.stream eq 23080): 09:22:21.299838000 10.159.63.104 10.161.241.208 HTTP 291 GET /eastsea/p/3764040.html HTTP/1.0 这个请求响应内容的长度是:Content-Length 1154110(1.1MB) 云服务器(ECS)在收到请求后

云计算之路-阿里云上:对“黑色n秒”问题的最终猜想——CPU C-states引起的

如果说2013年云计算之路的主题是"踩坑",那么2014年我们希望云计算之路的主题变成"填坑"--当然填坑是阿里云来完成的,我们只是见证曾经的坑坑洼洼变成平坦大道. 15号(周四)晚上我们发现了SLB会话保持的坑,16号晚上阿里云成功定位并进行修复,这两天正式发布后会填平这个坑.这次从踩坑到填坑的过程是最痛快的一次. 接下来我们的目标锁定在"黑色n秒"(刚发现一个英文说法:stuck for x seconds)这个坑我们最多.最神秘.最诡异的坑

云计算之路-阿里云上:CPU 100%引发的状况

今天下午17:00-17:05之间,在请求量没有明显变化的情况下,SLB中的1台云服务器的CPU突然串到100%(当时SLB中一共有3台云服务器),见下图: 造成的直接后果是请求执行时间变得超长,最长竟然达到了53秒(下图中的紫色线条). 另外伴随的表现是大量请求排队. 再看看这个时间段其它2台服务器的表现: 从这些现象分析,我们猜测CPU 100%这台云服务器出现了CPU资源争抢问题,将之从SLB中摘除后恢复正常. 云计算之路-阿里云上:CPU 100%引发的状况,布布扣,bubuko.com

云计算之路-阿里云上:什么是“黑色1秒”?

为了更好地分享我们解决"黑色1秒"问题的过程,在这篇博文中我们将专门描述一下"黑色1秒"问题的表现. "黑色1秒"是我们使用阿里云以来继"黑色10秒"之后遭遇的最奇特.最诡异.最难以捉摸.最富有戏剧性的问题. 它有2个最显著的特征: 第一个是最直观的表现,在Windows性能监视器(Performace Monitor)中会出现1秒的ASP.NET Applications -> Requests/Sec(简称QPS)为

云计算之路-阿里云上:消灭“黑色n秒”第一招——不让CPU空闲

昨天对"黑色n秒"问题的最终猜想以失败而告终,从而让我们结束了被动猜想阶段,进入了主动进攻阶段--出招. 今天出第一招--用C#写个小程序,让其在每个CPU核上运行一个线程,不让任何一个CPU核进入空闲(idle)状态,以进一步排除CPU idle引起的"黑色n秒". 在这一招中,借助的最重要的武器是System.Diagnostics.ProcessThread.ProcessorAffinity.通过给ProcessorAffinity设置一个掩码,就可以指定当

云计算之路-阿里云上:消灭“黑色n秒”第二招——给w3wp进程指定CPU核

虽然昨天的第一招失败了,但是从失败中我们学到了与多核CPU相关的Processor Affinity(处理器关联)的知识. 既然我们可以让.NET程序的不同线程运行于指定的CPU核,那是不是也可以让IIS应用程序池的进程w3wp运行于指定的CPU核? 虽然看起来"黑色n秒"似乎与w3wp运行于哪些CPU核没有什么关系,但是我们既然把怀疑对象锁定在CPU,那么任何与CPU相关的线索都不能放过.即使失败,也会满载而归,因为如果没有"黑色n秒"这个问题的驱动,我们根本不会

云计算之路-阿里云上:“黑色1秒”问题与2009年Xen一个补丁的故事

在之前对"黑色1秒"问题的分析博文中,我们将最大嫌疑对象锁定在了Xen,在这篇博文我们将从Xen的角度进行分析.也许有人会问,为什么不知道天多高地多厚地去研究不属于自己范围的问题?只因我们对一个问题的强烈好奇心--究竟是不是我们用Windows的错? 2009年3月20日,来自Intel的Yu Ke通过Xen-dev Mailing List给来自Citrix的Keir Fraser(负责的Xen开发者之一)发了一封邮件,提交了Xen的一个patch--cpuidle: suspend