知乎十万级容器规模的Java分布式镜像仓库实践

作者:知乎令孤无忌

前言

知乎在 2016 年已经完成了全量业务的容器化,并在自研容器平台上以原生镜像的方式部署和运行,并在后续陆续实施了 CI、Cron、Kafka、HAProxy、HBase、Twemproxy 等系列核心服务和基础组件的容器化。知乎既是容器技术的重度依赖者,也是容器技术的深度实践者,我们会陆续把容器技术的实践经验通过专栏和大家进行分享,本篇文章来分享知乎在镜像仓库这个容器技术核心组件的生产实践。

基础背景

容器的核心理念在于通过镜像将运行环境打包,实现“一次构建,处处运行”,从而避免了运行环境不一致导致的各种异常。在容器镜像的发布流程中,镜像仓库扮演了镜像的存储和分发角色,并且通过 tag 支持镜像的版本管理,类似于 Git 仓库在代码开发过程中所扮演的角色,是整个容器环境中不可缺少的组成部分。

镜像仓库实现方式按使用范围可以分为 Docker Hub 和 Docker Registry 两类,前者是在公网环境下面向所有容器使用者开放的镜像服务,后者是供开发者或公司在内部环境下搭建镜像仓库服务,由于公网下载镜像的网络带宽、延迟限制以及可控性的角度考虑,在私有云环境下通常需要采用 Docker Registry 来搭建自己的镜像仓库服务。

Docker Registry 本身开源,当前接口版本为 V2 (以下描述均针对该版本),支持多种存储后端,如:

  • inmemory: A temporary storage driver using a local inmemory map. This exists solely for reference and testing.
  • filesystem: A local storage driver configured to use a directory tree in the local filesystem.
  • s3: A driver storing objects in an Amazon Simple Storage Service (S3) bucket.azure: A driver storing objects in Microsoft Azure Blob Storage.
  • swift: A driver storing objects in Openstack Swift.
  • oss: A driver storing objects in Aliyun OSS.
  • gcs: A driver storing objects in a Google Cloud Storage bucket.

默认使用本地磁盘作为 Docker Registry 的存储,用下面的配置即可本地启动一个镜像仓库服务:

$ docker run -d
-p 5000:5000
--restart=always
--name registry
-v /mnt/registry:/var/lib/registry
registry:2

生产环境挑战

很显然,以上面的方式启动的镜像仓库是无法在生产环境中使用的,问题如下:

  1. 性能问题:基于磁盘文件系统的 Docker Registry 进程读取延迟大,无法满足高并发高吞吐镜像请求需要,且受限于单机磁盘,CPU,网络资源限制,无法满足上百台机器同时拉取镜像的负载压力。
  2. 容量问题:单机磁盘容量有限,存储容量存在瓶颈。知乎生产环境中现有的不同版本镜像大概有上万个,单备份的容量在 15T 左右,加上备份这个容量还要增加不少。
  3. 权限控制:在生产环境中,需要对镜像仓库配置相应的权限认证。缺少权限认证的镜像仓库就如同没有认证的 Git 仓库一样,很容易造成信息泄露或者代码污染。

知乎的生产环境中,有几百个业务以及几万个容器运行在我们的容器平台上,繁忙时每日创建容器数近十万,每个镜像的平均大小在 1G 左右,部署高峰期对镜像仓库的压力是非常大的,上述性能和容量问题也表现的尤为明显。

知乎解决方案

为了解决上述的性能和容量等问题,需要将 Docker Registry 构造为一个分布式服务,实现服务能力和存储容量的水平扩展。这其中最重要的一点是为 Docker Registry 选择一个共享的分布式存储后端,例如 S3,Azure,OSS,GCS 等云存储。这样 Docker Registry 本身就可以成为无状态服务从而水平扩展。实现架构如下:

该方案主要有以下几个特点:

  • 客户端流量负载均衡

为了实现对多个 Docker Registry 的流量负载均衡,需要引入 Load Balance 模块。常见的 Load Balance 组件,如 LVS,HAProxy,Nginx 等代理方案都存在单机性能瓶颈,无法满足上百台机器同时拉取镜像的带宽压力。因此我们采用客户端负载均衡方案,DNS 负载均衡:在 Docker daemon 解析 Registry 域名时,即通过 DNS 解析到某个 Docker Registry 实例 IP 上,这样不同机器从不同的 Docker Registry 拉取镜像,实现负载均衡。而且由于 Docker daemon 每次拉取镜像时只需解析一次 Registry 域名,对于 DNS 负载压力本身也很小。从上图可以看出,我们每一个 Docker Registry 实例对应一个 Nginx,部署在同一台主机上,对 Registry 的访问必须通过 Nginx,Nginx 这里并没有起到负载均衡的作用,其具体的作用将在下文描述。这种基于 DNS 的客户端负载均衡存在的主要问题是无法自动摘掉挂掉的后端。当某台 Nginx 挂掉时,镜像仓库的可用性就会受到比较严重的影响。因此需要有一个第三方的健康检查服务来对 Docker Registry 的节点进行检查,健康检查失败时,将对应的 A 记录摘掉,健康检查恢复,再将 A 记录加回来。

  • Nginx 权限控制

由于是完全的私有云,加上维护成本的考虑,我们的 Docker Registry 之前并没有做任何权限相关的配置。后来随着公司的发展,安全问题也变的越来越重要,Docker Registry 的权限控制也提上了日程。对于 Docker Registry 的权限管理,官方主要提供了两种方式,一种是简单的 basic auth,一种是比较复杂的token auth。我们对 Docker Registry 权限控制的主要需求是提供基本的认证和鉴权,并且对现有系统的改动尽量最小。basic auth 的方式只提供了基本的认证功能,不包含鉴权。而 token auth 的方式又过于复杂,需要维护单独的 token 服务,除非你需要相当全面精细的 ACL 控制并且想跟现有的认证鉴权系统相整合,否则官方并不推荐使用 token auth 的方式。这两种方式对我们而言都不是很适合。我们最后采用了 basic auth + Nginx 的权限控制方式。basic auth 用来提供基本的认证,OpenRestry + lua 只需要少量的代码,就可以灵活配置不同 URL 的路由鉴权策略。我们目前实现的鉴权策略主要有以下几种:

  • 基于仓库目录的权限管理:针对不同的仓库目录,提供不同的权限控制,例如 /v2/path1 作为公有仓库目录,可以直接进行访问,而 /v2/path2 作为私有仓库目录,必须经过认证才能访问。基于机器的权限管理:只允许某些特定的机器有 pull/push 镜像的权限。Nginx 镜像缓存

Docker Registry 本身基于文件系统,响应延迟大,并发能力差。为了减少延迟提升并发,同时减轻对后端存储的负载压力,需要给 Docker Registry 增加缓存。Docker Registry 目前只支持将镜像层级 meta 信息缓存到内存或者 Redis 中,但是对于镜像数据本身无法缓存。我们同样利用 Nginx 来实现 URL 接口数据的 cache。为了避免 cache 过大,可以配置缓存失效时间,只缓存最近读取的镜像数据。主要的配置如下所示:

proxy_cache_path /dev/shm/registry-cache levels=1:2 keys_zone=registry-cache:10m max_size=124G;

加了缓存之后,Docker Registry 性能跟之前相比有了明显的提升。经过测试,100 台机器并行拉取一个 1.2G 的 image layer,不加缓存平均需要 1m50s,花费最长时间为 2m30s,添加缓存配置之后,平均的下载时间为 40s 左右,花费最长时间为 58s,可见对镜像并发下载性能的提升还是相当明显的。

  • HDFS 存储后端

Docker Registry 的后端分布式存储,我们选择使用 HDFS,因为在私有云场景下访问诸如 S3 等公有云存储网络带宽和时延都无法接受。HDFS 本身也是一个稳定的分布式存储系统,广泛应用在大数据存储领域,其可靠性满足生产环境的要求。但 Registry 的官方版本里并没有提供 HDFS 的 Storage Driver, 所以我们根据官方的接口要求及示例,实现了 Docker Registry 的 HDFS Storage Driver。出于性能考虑,我们选用了一个 Golang 实现的原生 HDFS Client (colinmarc/hdfs)。Storage Driver 的实现比较简单,只需要实现 StorageDriver 以及 FileWriter 这两个 interface 就可以了,具体的接口如下:

type StorageDriver interface {

// Name returns the human-readable "name" of the driver。

Name() string

// GetContent retrieves the content stored at "path" as a []byte.

GetContent(ctx context.Context, path string) ([]byte, error)

// PutContent stores the []byte content at a location designated by "path".

PutContent(ctx context.Context, path string, content []byte) error

// Reader retrieves an io.ReadCloser for the content stored at "path"

// with a given byte offset.

Reader(ctx context.Context, path string, offset int64) (io.ReadCloser, error)

// Writer returns a FileWriter which will store the content written to it

// at the location designated by "path" after the call to Commit.

Writer(ctx context.Context, path string, append bool) (FileWriter, error)

// Stat retrieves the FileInfo for the given path, including the current

// size in bytes and the creation time.

Stat(ctx context.Context, path string) (FileInfo, error)

// List returns a list of the objects that are direct descendants of the

//given path.

List(ctx context.Context, path string) ([]string, error)

// Move moves an object stored at sourcePath to destPath, removing the

// original object.

Move(ctx context.Context, sourcePath string, destPath string) error

// Delete recursively deletes all objects stored at "path" and its subpaths.

Delete(ctx context.Context, path string) error

URLFor(ctx context.Context, path string, options map[string]interface{}) (string, error)

}

type FileWriter interface {

io.WriteCloser

// Size returns the number of bytes written to this FileWriter.

Size() int64

// Cancel removes any written content from this FileWriter.

Cancel() error

// Commit flushes all content written to this FileWriter and makes it

// available for future calls to StorageDriver.GetContent and

// StorageDriver.Reader.

Commit() error

}

其中需要注意的是 StorageDriver 的 Writer 方法里的 append 参数,这就要求存储后端及其客户端必须提供相应的 append 方法,colinmarc/hdfs 这个 HDFS 客户端中没有实现 append 方法,我们补充实现了这个方法。

  • 镜像清理

持续集成系统中,每次生产环境代码发布都对应有容器镜像的构建和发布,会导致镜像仓库存储空间的持续上涨,需要及时清理不用的镜像释放存储空间。但 Docker Registry 本身并没有配置镜像 TTL 的机制,需要自己开发定时清理脚本。

Docker Registry 删除镜像有两种方式,一种是删除镜像:

DELETE /v2/<name>/manifests/<reference>

另一种是直接删除镜像层 blob 数据:

DELETE /v2/<name>/blobs/<digest>

由于容器镜像层级间存在依赖引用关系,所以推荐使用第一种方式清理过期镜像的引用,然后由 Docker Registry 自身判断镜像层数据没有被引用后再执行物理删除。

未来展望

通过适当的开发和改造,我们实现了一套分布式的镜像仓库服务,可以通过水平扩容来解决单机性能瓶颈和存储容量问题,很好的满足了我们现有生产环境需求。但是在生产环境大规模分发镜像时,服务端(存储、带宽等)依然有较大的负载压力,因此在大规模镜像分发场景下,采用 P2P 的模式分发传输镜像更加合适,例如阿里开源的 Dragonfly 和腾讯开发的 FID 项目。知乎当前几乎所有的业务都运行在容器上,随着业务的快速增长,该分布式镜像仓库方案也会越来越接近性能瓶颈,因此我们在后续也会尝试引入 P2P 的镜像分发方案,以满足知乎快速增长的业务需求。

团队介绍

知乎架构平台团队是支撑整个知乎业务的基础技术团队,开发和维护着知乎几乎全量的核心基础组件,包括容器、Redis、MySQL、Kafka、LB、HBase 等核心基础设施,团队小而精,每个同学都独当一面负责上面提到的某个核心系统。

原文地址:https://www.cnblogs.com/yuxiang1/p/9274394.html

时间: 2024-07-30 02:27:47

知乎十万级容器规模的Java分布式镜像仓库实践的相关文章

width:100%与绝对定位同时存在,偏移出父级容器

当父级容器内的子元素width设为100%,而子元素又有绝对定位时,子元素伸展超出父级容器,像下面 出现这种情况的原因,width:100%,这个百分之百是相对其定位父级而言的,其定位父级有多宽,这个子元素就有多宽,所以子元素跑到了父级容器外 html <div class="container"> <div class="content">好的</div> </div> css .container { positi

Java知多少(76)语言包(java.lang)简介

Java语言包(java.lang)定义了Java中的大多数基本类,由Java语言自动调用,不需要显示声明.该包中包含了Object类,Object类是整个类层次结构的根结点,同时还定义了基本数据类型的类,如:String.Boolean.Byter.Short等.这些类支持数字类型的转换和字符串的操作等,下面将进行简单介绍. Math类 Math类提供了常用的数学运算方法以及Math.PI和Math.E两个数学常量.该类是final的,不能被继承,类中的方法和属性全部是静态,不允许在类的外部创

Java知多少(9) import及Java类的搜索路径

如果你希望使用Java包中的类,就必须先使用import语句导入. import语句与C语言中的 #include 有些类似,语法为:    import package1[.package2…].classname;package 为包名,classname 为类名.例如: 1 import java.util.Date; // 导入 java.util 包下的 Date 类 2 import java.util.Scanner; // 导入 java.util 包下的 Scanner 类 3

[前端]如何让图片等比例缩放,同时撑满父级容器的长或宽

[前端]如何让图片等比例缩放,同时撑满父级容器的长或宽 最近碰到一个问题,如何在一个容器里同时放一张图片,而这张图片会等比例缩放,长或宽会跟着父级容器的长或宽一致. 找了一段时间,发现了 css3 中有这个属性: object-fit: contain; 具体怎么使用:见这篇文章 半深入理解CSS3 object-position/object-fit属性 完 原文地址:https://www.cnblogs.com/htoooth/p/8676274.html

css等比例分割父级容器(完美三等分)

父级容器的宽度一定,要实现子元素等比例完美均分父级宽度,实现方式有哪些? html部分代码: 方法一: 浮动布局+百分比 (将子元素依次左浮动,根据子元素的个数,设定每个子元素的宽度百分比) 方法二:行内元素(inline-block)+百分比 方法三: 父元素  display:table  +  子元素   display:table-cell 方法四: css3  display:flex:(flex布局) 方法五:栅格系统(bootstrap) 给子元素添加class属性        

十万级百万级数据量的Excel文件导入并写入数据库

一.需求分析 最近接到一个需求,导入十万级,甚至可能百万数据量的记录了车辆黑名单的Excel文件,借此机会分析下编码过程; 首先将这个需求拆解,发现有三个比较复杂的问题: 问题一:Excel文件导入后首先要被解析为存放对象的列表,数据量大的情况下可能会导致内存溢出,解析时间过长; 问题二:插入数据库的时候,数据量大,写入的时间长 问题三:要对数据库中的现有数据进项判断,不仅仅要做插入动作,还要将数据库的数据与导入的数据对比,判断是否做更新操作 其中: 问题一和问题三,可以看做同一类,因为主要涉及

Java编程最差实践常见问题详细说明(2)转

Java编程最差实践常见问题详细说明(2)转 2012-12-13 13:57:20|  分类: JAVA |  标签:java  |举报|字号 订阅 反射使用不当  错误的写法: Java代码   Class beanClass = ... if (beanClass.newInstance() instanceof TestBean) ... 这里的本意是检查beanClass是否是TestBean或是其子类, 但是创建一个类实例可能没那么简单, 首先实例化一个对象会带来一定的消耗, 另外有

避免Java中NullPointerException的Java技巧和最佳实践

Java中的NullPointerException是我们最经常遇到的异常了,那我们到底应该如何在编写代码是防患于未然呢.下面我们就从几个方面来入手,解决这个棘手的?问题吧.? 值得庆幸的是,通过应用一些防御性编码技术并遵循应用程序多个部分之间的约定,您可以在一定程度上避免Java中的NullPointerException. 顺便说一下,在本文中,我们将学习一些Java的编码技术和最佳实践,这些技巧和最佳实践可用于避免的Java中的空指针异常.遵循这些Java的技巧还可以最大程度地减少很多Ja

Java编程最差实践常见问题详细说明(1)转

Java编程最差实践常见问题详细说明(1)转 原文地址:http://www.odi.ch/prog/design/newbies.php 每天在写Java程序, 其实里面有一些细节大家可能没怎么注意, 这不, 有人总结了一个我们编程中常见的问题. 虽然一般没有什么大问题, 但是最好别这样做. 另外这里提到的很多问题其实可以通过Findbugs(http://findbugs.sourceforge.net/ )来帮我们进行检查出来. 字符串连接误用  错误的写法: Java代码   Strin