推荐-vultr vps,14个数据中心:网络+I/O 具体情况


晚上闲的无聊跑了一下vultr.com家的VPS的网络和I/O情况,先说明下我测试vultr的大致情况:我是晚上11点-12点测试的,各位可以根据时间换算大概知道服务器所在当地时区的时间;测试平台均为系统模板提供的debian 7(64),不安装任何其他东西,就连更新都没...这个文章发出来具体就是想让那些试图但是还没玩过vultr.com的朋友心中大致有个数据,这样好选择。

官方网站: www.vultr.com

首先大家需要了解的就是vultr.com的VPS的基本配置:E3系列的CPU是主流,偶尔会出现E5系列的,除了大硬盘存储系列的VPS之外其他的都是SSD硬盘,所有VPS默认都是1000M端口共享。后面我们在测试图里面基本上是可以验证这些的。

首先我们看看新泽西机房的大硬盘VPS,下图中我们发现只有一个华盛顿特区的网络测试才能证明这个母鸡不是100M端口,虽为1000M但是其他地方跑起来效果不咋地;其次是I/O,相对于vultr.com的SSD硬盘来说,这个230MB/S的效果其实是很不错了的,你要知道这是存储性质的VPS。

荷兰(阿姆斯特丹)机房:依然是1000M端口,很明显两个NL节点的测试好很多,荷兰对荷兰嘛,460M的I/O对于一般折腾帝来说都是可以了的,再说这可是E3系列的CPU,最大也就32G内存撑死,整体来说靠谱。

美国亚特兰大:

美国芝加哥:

美国达拉斯机房:

法国机房:

德国机房:

英国机房:

美国洛杉矶:

美国迈阿密:

美国新泽西:

美国西雅图:

美国硅谷:

还缺一个日本东京:让我蛋疼的是跑个脚本太为难了,他妈的半天出不来结果还断开SSH断...晚点继续补图吧!

一个大致的结论是:
网络方面 美国西海岸的西雅图、洛杉矶、硅谷比较适合亚洲人用,美国中部的达拉斯、芝加哥中规中矩,美国东南海岸的亚特兰大、新泽西、华盛顿特区、迈阿密适合欧美用户(这里是说欧洲人不选欧洲机房的情况下),日本机房其实不适合中国人玩(绕道美国再回来的线路),欧洲的英国、法国、德国、荷兰机房整体来说在整个欧洲效果都不错。
硬盘I/O问题:不管你选哪个机房,跑一般在Linux下能跑的东西vultr家的任何一个机房的硬盘读写能力都可以满足你的常规需求,别整些极端的情况是不在话下的!

原文:http://www.zhujiceping.com/10826.html

时间: 2024-10-11 12:08:25

推荐-vultr vps,14个数据中心:网络+I/O 具体情况的相关文章

[转]数据中心网络虚拟化 隧道技术

http://www.sdnlab.com/12077.html SDNLAB 如何实现不同租户和应用间的地址空间和数据流量的隔离是实现数据中心网络虚拟化首先需要解决的几个问题之一.所谓地址空间的隔离是指不同租户和应用之间的网络(ip)地址之间不会产生相互干扰.换句话说,两个租户完全可以使用相同的网络地址.所谓数据流量的隔离是指任何一个租户和应用都不会感知或捕获到其他虚拟网络内部的流量.为了实现上述目的,我们可以在物理网络上面为租户构建各自的覆盖(overlay)网络,而隧道封装技术则是实现覆盖

数据中心网络虚拟化-隧道技术

如何实现不同租户和应用间的地址空间和数据流量的隔离是实现数据中心网络虚拟化首先需要解决的几个问题之一.所谓地址空间的隔离是指不同租户和应用 之间的网络(ip)地址之间不会产生相互干扰.换句话说,两个租户完全可以使用相同的网络地址.所谓数据流量的隔离是指任何一个租户和应用都不会感知或捕 获到其他虚拟网络内部的流量.为了实现上述目的,我们可以在物理网络上面为租户构建各自的覆盖(overlay)网络,而隧道封装技术则是实现覆盖网络的 关键.本节我们将针对目前较为流行的构建覆盖网络的隧道封装技术展开讨论

[转]数据中心网络虚拟化 主流平台产品介绍

http://www.sdnlab.com/12076.html SDNLAB 为了对数据中心网络虚拟化有个初步的认识,本文将对当前比较主流的几款商业平台进行介绍,包括VMware公司的网络虚拟化技术,IBM公司的Dove及开源的OpenDove平台, NEC公司的virtual-network-platform和VTN平台,以及Cisco公司的Nexus虚拟化平台. 1.Vmware公司的网络虚拟化技术 VMware在虚拟化领域的领导地位使得我们必须首先介绍一下他们的网络虚拟化技术NSX.然而

数据中心网络

数据中心网络是云计算的核心基础设施 数据中心的拓扑设计 代表方案:Fat-Tree Fat-Tree采用3层拓扑结构进行交换机级联,接入交换机与汇聚交换机被划分为不同的集群,集群中每台接入交换机都与每台汇聚交换机相连,每台汇聚交换机与部分核心交换机相连. 典型的Fat-Tree采用1G商用交换机. 数据中心网络传输协议 当前的数据中心网络仍采用广泛TCP传输数据,在特定情况下TCP性能会急剧下降,典型的TCP Incast. 数据中心网络链路资源比互联网丰富得多,传统的单路径传输协议不能充分地利

[转载] Google数据中心网络技术漫谈

原文: http://www.sdnlab.com/12700.html?from=timeline&isappinstalled=0#10006-weixin-1-52626-6b3bffd01fdde4900130bc5a2751b6d1&sukey=fc78a68049a14bb247c537e229e9301ea4dca80236df4f4e775535c08f0a24420a9ac4d726c99dad63a9f6e4c88271ed 真羡慕 google 强大的网络基础设施啊,

浅谈互联网企业数据中心网络设计

主要想解析下目前互联网公司数中心做为电子商务的基础承载面临的一些问题和挑战,以及目前我司在用网络设计供大家参考和指导,欢迎各位大大批评指正. 1.数据中心网络设计思考:互联网企业最大的特点在于公网.内网像两根平行线,中间的设备需要强大的横向扩展能力,所以采用的相应的VDC或vrf特性,将核心端口或端口组划至相应的VDC或VRF下 主要考虑端口密度.背板带宽.交换容量.特性.HA 无阻塞线速转发设计 高扩展性 端口密度 高转发缓存 高可用性 设计思路: 使用CSS/VSS/IRF技术将物理两台设备

Overlay对数据中心网络的改进

编者按:Overlay网络方案就是通过在现有网络上叠加一个软件定义的逻辑网络,最大程度的保留原有网络,通过定义其上的逻辑网络,实现业务逻辑,从而解决原有数据中心的网络问题,极大的节省传统用户投资.本文是<Overlay网络与物理网络的关系>的前传,帮助你了解一些关于overlay的基础概念. 云心网络设备随Overlay解决方案会发生什么变化?我们将在本期和下期文章里,力图回答这些问计算大潮将数据中心的网络建设推至聚光灯下,各种解决方案和各种技术标准不断涌现.以VMware为代表的软件厂商提出

2017下一代数据中心网络研究报告zz

http://dy.163.com/v2/article/detail/CDG9CD7G05179LAH.html 2月2日,SDxCentral发布了2017下一代数据中心研究报告(2017 Next Gen Data Center Networking Report).这份报告系统介绍了下一代数据中心网络的发展趋势.关键功能.典型案例.行业标准以及热门产品. 下一代数据中心演进的四大驱动力 1.业务竞争驱动:企业提升自身竞争力,对敏捷性.差异化和成本节约提出了新要求 Increased Co

UCloud可支撑单可用区320,000服务器的数据中心网络系统设计

2018年10月份,UCloud数据中心基础网络完成了V4新架构的落地,自此,新建的数据中心(下简称DC)全面升级到25G/100G网络,极大提升了DC容量和DC间互联的性能.V4架构下的单可用区可提供320,000个服务器接入端口,是此前V3架构的4倍.并且支持无损网络特性,提供可用区资源的水平扩展和滚动升级能力.上线以来,新架构有力保障了UCloud福建GPU可用区开放.北京二可用区B/C/D扩容等需求. 对比云产品通过软件的灵活性来创造丰富的用户价值,公有云物理网络更注重规划的前瞻性与设计