Chromium多进程机制解析

关于Chromium IPC多进程分析的文章很多了,这篇尝试以浅显的方式解释Chromium多进程机制,解析IPC内部运作的基本机制。

Chromium如何保证多进程的性能

对于一个多进程应用,其核心要解决的是并发的问题.因为底层IPC机制的原因,其中一条路径又进一步演变为并发网络通信问题,两个面: 线程/进程网络

在Chromium中, 主要运用了以下关键技术:

  • Unix Domain Socket (POSIX下使用的IPC机制)
  • libevent (轻型事件驱动的网络库,用于监听IPC中的端口(文件描述符))
  • ChannelProxy (为Channel提供线程安全的机制)
  • 闭包 (线程的运作方式)

先修路! 建立通道

写一个单机下多进程应用的核心就是建立进程之间沟通的方式,可以称为channel 或者 pipe。操作系统会提供这样的基础机制,包括:named pipe, shared memory, socket。

Chromium在POSIX下使用Unix Domain Socket来实现。Unix Domain Socket通过复用网络socket的标准接口,提供轻量级的稳定的本机socket通讯。Unix Domain的命名则是来自于使用socket时将domain参数定义为: PF_UNIX (Mac OS)或AF_UNIX, 来标识为单机的通讯使用。socket的建立不以IP地址为目标了,而是由文件系统中的FD(文件描述符)。

socket API原本是为网络通讯设计的,但后来在socket的框架上发展出一种IPC机制,就是UNIX Domain Socket。虽然网络socket也可用于同一台主机的进程间通讯(通过loopback地址127.0.0.1),但是UNIX Domain Socket用于IPC更有效率:不需要经过网络协议栈,不需要打包拆包、计算校验和、维护序号和应答等,只是将应用层数据从一个进程拷贝到另一个进程。 UNIX域套接字与TCP套接字相比较,在同一台主机的传输速度前者是后者的两倍。这是因为,IPC机制本质上是可靠的通讯,而网络协议是为 不可靠的通讯设计的。UNIX Domain Socket也提供面向流和面向数据包两种API接口,类似于TCP和UDP,但是面向消息的UNIX Domain Socket也是可靠的,消息既不会丢失也不会顺序错乱。

使用UNIX Domain Socket的过程和网络socket十分相似,也要先调用socket()创建一个socket文件描述符,address family指定为AF_UNIX,type可以选择SOCK_DGRAM或SOCK_STREAM,protocol参数仍然指定为0即可。

UNIX Domain Socket与网络socket编程最明显的不同在于地址格式不同,用结构体sockaddr_un表示,网络编程的socket地址是IP地址加端口 号,而UNIX Domain Socket的地址是一个socket类型的文件在文件系统中的路径。

Chromium在POSIX下直接使用socketpair() API创建了已经连通的匿名管道, 逻辑结构如下:

可以看过IPC机制里区分了Server和Client, 其实通过socketpair()创建的匿名管道是全双工,实质上并不区分Server/Client。

这个IPC建立的过程是在主进程完成的,需要使用其它的机制通知子进程。在Android Chrome下,通过传递FD列表完成这个操作。这个稍后再解释 (可以查找kPrimaryIPCChannel学习)。

当子进程知道Server端的socket FD后,就可以进行连接,发送hello message,  认证后就可以开始通讯了。

通讯端口的管家

当端口打通后,效率成为关键。通常而言,一般这时候会考虑为了及时处理收到消息,要么轮询,要么实现回调。但事情并不是这么简单。

虽说Unix Domain Socket不走网络栈已经提升不了性能。但还有负载的问题需要解决。使用回调机制是必须的,更重要的是面临C10K问题:

C10K Problem

C10K 问题的最大特点是:设计不够良好的程序,其性能和连接数及机器性能的关 系往往是非线性的。举个例子:如果没有考虑过 C10K 问题,一个经典的基于 select 的程序能在旧服务器上很好处理 1000 并发的吞吐量,它在 2 倍性能新服务器上往往处 理不了并发 2000 的吞吐量。

Chromium使用了大名鼎鼎的第三方并发网络库:libevent来完成这项工作 (另外还有ACE,自适应通信环境)。 下面是它的功能介绍:

Libevent是一个轻量级的开源高性能网络库.有几个显著的亮点:

a. 事件驱动(event-driven),

b. 高性能 轻量级,专注于网络,不如ACE那么臃肿庞大

c. 注册事件优先级

基本的socket编程是阻塞/同步的,每个操作除非已经完成或者出错才会返回,这样对于每一个请求,要使用一个线程或者单独的进程去处理,系统资源没法支撑大量的请求(所谓c10k problem),例如内存:默认情况下每个线程需要占用2~8M的栈空间。posix定义了可以使用异步的select系统调用,但是因为其采用了轮询的方式来判断某个fd是否变成active,效率不高[O(n)],连接数一多,也还是撑不住。于是各系统分别提出了基于异步/callback的系统调用,例如Linux的epoll,BSD的kqueue,Windows的IOCP。由于在内核层面做了支持,所以可以用O(1)的效率查找到active的fd。基本上,libevent就是对这些高效IO的封装,提供统一的API,简化开发。

相当于在通讯端口设了一位大管家,提升IPC交互的能力。

Libevent的核心是应用了解决并发问题中常用的基于事件驱动的Reactor模式。简单而言就是通过一个内部的循环,在事件触发时启动并进行响应,无事件时则挂起.它同样需要注意事件回调的处理不能做太多事情,避免拥塞.在Chromium里的代码体现IPC Channel实现如下接口:

// Used with WatchFileDescriptor to asynchronously monitor the I/O readiness

// of a file descriptor.

class Watcher {

 public:

  // Called from MessageLoop::Run when an FD can be read from/written to

  // without blocking

  virtual void OnFileCanReadWithoutBlocking(int fd) = 0;

  virtual void OnFileCanWriteWithoutBlocking(int fd) = 0;

 protected:

  virtual ~Watcher() {}

};

关于Reactor模式和另一类相似的模式的比对, 可以读一下这篇文章

专人接待! 排队,排队...

IPC通道已经建立好了,但有一大群的调用者。任何人都想在自己方便的时候进行IPC通讯,这样就存在并发问题了。Channel本身只想做好通道的管理工作,一心对外。 Chromium为此引入了Channel Proxy。

Proxy从设计模式上来看,职能上就是服务上的秘书,安排访客与Channel见面的时间和方式。同线程的可以入队列等候,不同线程的,不好意思,出门右拐,再进来。总之Channel只在一个线程上做事,Channel Proxy负责将要处理的事务安排到指定的线程上。

bool ChannelProxy::Send(Message* message) {

  context_->ipc_task_runner()->PostTask(

      FROM_HERE,

      base::Bind(&ChannelProxy::Context::OnSendMessage,

                 context_, base::Passed(scoped_ptr<Message>(message))));

  return true;

}

在Chromium中的线程只负责建立跑道,执行事务,它不会保存特定任务的上下文信息(有助于提高性能),也不关心执行的是什么事务。执行什么操作完全由上层的业务逻辑决定。在主干道上,任务的处理时间是非常宝贵的,特定是在UI线程上。进程里会指定Channel处理任务所在的线程,多线程情况以下线程任务的方式请求Channel发送及处理消息。在线程上其核心就是闭包的实现.

让线程更高效 - 裸奔的线程

提升应用程序的并发能力,两个要点:

  • 任务响应短,快.不要有耗时的事务.
  • 避免频繁的上下文切换.

前面提到的libevent中应用的Reactor模式也是要达到相同的目的. 第一点是应用层的一个约定,第二层就是线程机制要保障的.

传统的线程在创建时就会指定一个入口,往往已经是一个具体功能的入口了,里面会一个循环,对所要监测的事件,以及对应的处理,这个循环体本身是清楚,甚至可以做一些逻辑判断工作.这些就是因为它掌握了当前任务的上下文信息. 

Chromium上的线程可以避免这类的上下文切换, 线程本身不保存任务的信息,任务对其是透明的,线程只负责调用其执行操作,可以视为裸奔的状态,没有任何负担.跑在线程上的任务以典型的Command模式实现。它必须解决两个问题:

  • 任务本身在一个线程运行,就可以由其自己保存上下文信息.
  • 任务的参数(也是一种上下文),则可以通过闭包的方式也由其自己保存.

闭包在C++有很多的尝试,Chromium中特别说明其也参考了tr1::bind的设计.关于Chromium的线程实现这里先不多做说明。

Chromium进程架构

从逻辑上来看,Chromium将UI所在的进程视为主进程,取名为Browser, 页面渲染所在的进程以及其它业务进程,都是子进程。包括Renderer, GPU等。

主进程本身除了初始化自身,还要负责创建子进程,同时通知建立channel的信息(文件描述符)。概念模型如下:

对于Chromium而言,Contents已经代表一个浏览器能力,在其上就是实现浏览器业务的Embedder了。但不同的Embedder或者在不同的平台进程的选择可能不同,比如启动一个浏览主进程的行为不同(比如在Android上就不需要启动新进程了,直接初化BrowserMainRunner。而Linux则可以要以Service Process的形式运行主进程。),初始化SandBox的方式不同。Chromium与是将所有进程的启动的操作集中起来供Embedder和主进程来启动新进程 (Embedder负责启动Browser进程, 主进程则再启动新进程,并在ContentMainRunner中根据参数启动不同的子进程。):

*在单进程模型下,主进程就不会直接启动子进程了,而是通过CreateInProcessRendererThread()创建新的线程(InProcessRendererThread),同样会传入channel描述符。

进一步看主进程和Renderer进程,两边负责接口的,则是两个兼有(继承)IPC::Sender和IPC::Listener功能的类:RenderProcessHost和RenderThread。没错,就是RenderThread! RenderProcess也存在,只是一个进程的逻辑表示,只有一小部分的代码。以单进程模式下调用InProcessRendererThread来初始化RenderThread为例,可以看到channel_id_是传入到RenderThread中处理的。

void InProcessRendererThread::Init() {

  render_process_.reset(new RenderProcessImpl());

  new RenderThreadImpl(channel_id_);

}

专线与公共线路 - 消息的分发

分发消息时,分为广播和专线两种方式。在Chromium中一个页面在不同线程,Browser和Renderer两端以routed id为标识彼此。如果要说悄悄话,就指定一个routed id, 这类消息称为Routed Message,是专线。 另一类消息,则是进行广播,不区分身份,这类消息为Control Message。

RenderView (继承自RenderWidget)用于向IPC Channel注册自己的代码在RenderWidget::DoInit():

bool result = RenderThread::Get()->Send(create_widget_message);

if (result) {

  RenderThread::Get()->AddRoute(routing_id_, this);

  ......

}

另外在Browser和Render Thread初始化时,都会在IPC Channel上增加一组Filters,以便供其它功能使用。

参考资料

时间: 2024-10-10 18:25:51

Chromium多进程机制解析的相关文章

Chromium多进程架构简要介绍和学习计划

Chromium以多进程架构著称,它主要包含四类进程,分别是Browser进程.Render进程.GPU进程和Plugin进程.之所以要将Render进程.GPU进程和Plugin进程独立出来,是为了解决它们的不稳定性问题.也就是说,Render进程.GPU进程和Plugin进程由于不稳定而引发的Crash不会导致整个浏览器崩溃.本文就对Chromium的多进程架构进行简要介绍,以及制定学习计划. 老罗的新浪微博:http://weibo.com/shengyangluo,欢迎关注! 一个Chr

Java并发编程:Concurrent锁机制解析

.title { text-align: center } .todo { font-family: monospace; color: red } .done { color: green } .tag { background-color: #eee; font-family: monospace; padding: 2px; font-size: 80%; font-weight: normal } .timestamp { color: #bebebe } .timestamp-kwd

笔记:XML-解析文档-流机制解析器(SAX、StAX)

DOM 解析器完整的读入XML文档,然后将其转换成一个树型的数据结构,对于大多数应用,DOM 都运行很好,但是,如果文档很大,并且处理算法又非常简单,可以在运行时解析节点,而不必看到完整的树形结构,那么我们应该使用流机制解析器(streaming parser),Java 类库提供的流解析机制有 SAX 解析器和 StAX 解析器,SAX 解析器是基于事件回调机制,而 StAX解析器提供了解析事件的迭代器. 使用SAX解析器 SAX 解析器在解析XML 输入的组成部分时会报告事件,在使用 SAX

androd输入管理系统机制解析

 android的输入管理系统主要完成按键.触摸板.鼠标等输入设备的事件输入,功能包括,输入设备的事件输入及向焦点窗口和焦点视图的事件派发,事件的插入,事件的过滤,事件的拦截等功能. 整个输入系统包括服务端和客户端两部分,服务端部分主要完成输入设备事件的读取.事件的映射.事件的插入.事件的过滤.事件的拦截等功能:客户端部分主要完成事件向焦点窗口和焦点视图的派发. 输入系统的整个架构采用的是管道过滤器模式(Pipe and Filter)架构模式.服务端的InputReader和InputDi

android permission权限与安全机制解析(下)

在android permission权限与安全机制解析(上)篇博客中,我已经详细介绍了android相关系统permission和自定义permission,以及一些权限机制和安全机制.这篇博客主要将会介绍到android 6.0的相关权限更改,原理和相关的处理方式,解决方法等. 就以我以前的一个仿最新版微信相册为例子来分析. android 6.0权限全面详细分析和解决方案 Marshmallow版本权限修改 android的权限系统一直是首要的安全概念,因为这些权限只在安装的时候被询问一次

转 Java Classloader机制解析

转 Java Classloader机制解析 发表于11个月前(2014-05-09 11:36)   阅读(693) | 评论(0) 9人收藏此文章, 我要收藏 赞1 慕课网,程序员升职加薪神器,点击免费学习 目录[-] JDK默认ClassLoader 双亲委托模型 如何自定义ClassLoader 1.loadClass 方法 2.findClass 3.defineClass 不遵循“双亲委托机制”的场景 做Java开发,对于ClassLoader的机制是必须要熟悉的基础知识,本文针对J

java classLoader机制解析

类从被加载到虚拟机内存中开始,到卸装出内存为止,它的整个生命周期包括了:加载,连接(验证,准备,解析),初始化,使用和卸载七个阶段.其中验证.准备和解析三个部分称为连接,也就是说,一个Java类从字节代码到能够在JVM中被使用,需要经过加载.链接和初始化这三个步骤 .我们看一看Java虚拟机的体系结构. Java虚拟机的体系结构如下图所示: Java类加载的全过程,是加载.验证.准备.解析和初始化这五个阶段的过程.而加载阶段是类加载过程的一个阶段.在加载阶段,虚拟机需要完成以下三件事情: 通过一

Sql Server Tempdb原理-日志机制解析实践

笔者曾经在面试DBA时的一句”tempdb为什么比其他数据库快?”使得95%以上的应试者都一脸茫然.Tempdb作为Sqlserver的重要特征,一直以来大家对它可能即熟悉又陌生.熟悉是我们时时刻刻都在用,陌生可能是很少有人关注它的运行机制.这次我将通过实例给大家介绍下tempdb的日志机制. 测试用例 我们分别在用户数据库(testpage),tempdb中创建相似对象t1,#t1,并在tempdb中创建创建非临时表,然后执行相应的insert脚本(用以产生日志),并记录执行时间用以比较用以比

Java NIO类库Selector机制解析--转

一.  前言 自从J2SE 1.4版本以来,JDK发布了全新的I/O类库,简称NIO,其不但引入了全新的高效的I/O机制,同时,也引入了多路复用的异步模式.NIO的包中主要包含了这样几种抽象数据类型: Buffer:包含数据且用于读写的线形表结构.其中还提供了一个特殊类用于内存映射文件的I/O操作. Charset:它提供Unicode字符串影射到字节序列以及逆映射的操作. Channels:包含socket,file和pipe三种管道,都是全双工的通道. Selector:多个异步I/O操作集