前面我也讲述过一篇文章《带你从零学习linux下的socket编程》,主要是从进程通信的角度开篇然后延伸到linux中的socket的开发。本篇文章依然是从进程通信的角度去分析下Android中的进程通信机制。
为什么在Android中使用binder通信机制?
众所周知linux中的进程通信有很多种方式,比如说管道、消息队列、socket机制等。socket我们再熟悉不过了,然而其作为一款通用的接口,通信开销大,数据传输效率低,主要用在跨网络间的进程间通信以及在本地的低速通信。消息队列和管道都是采用存储-转发模式,效率上面也有点低,因为这种模式的数据传输要经过两次的内存拷贝,先从发送方的缓存区拷贝到内核开辟的缓存区中,然后再从内核拷贝到接受方的缓存区。传统的ipc没有任何的安全措施,两个进程之间没有办法鉴别对方的身份,而在Android中,每个应用在安装后都会被分配一个uid,所以这个身份也有了保障,也更安全。为了保障安全和高效率,Android提供了一套全新的ipc通信机制也就是binder。
binder通信模型
一个进程间通信可以简单理解成为Client-server模式,binder机制在Android系统中的一个模型如下:
- Client获得到server端的proxy对象。
- Client通过调用proxy对象的方法向server发送请求。
- proxy对象通过binder设备节点,把Client请求信息发送到linux内核空间,由binder驱动获取并发送到服务进程。
- 服务进程处理Client请求,通过linux内核的binder驱动把结果返回给proxy对象。
- 客户端收到proxy的返回结果。
当client的线程进入到binder驱动后,内核会把client的线程挂起,然后进入服务进程,一直到结果返回,Client线程才会被唤醒,所以这个过程又类似于“线程迁移”,就是一个线程进入到另外一个进程中带着结果返回。
binder组成结构
- Binder驱动
binder是内核中的一个字符驱动设备位于/dev/binder。这个设备是Android系统IPC的核心部分,客户端的服务代理用来通过它向server发送请求,服务器也是通过它把处理结果返回给客户端的服务代理对象。这部分内容,在Android中通过一个IPCThreadState对象封装了对Binder驱动的操作。
- Service Manager
这个东西主要用来负责管理服务。Android中提供的系统服务都要通过Service Manager注册自己,将自己添加进服务管理链表中,为客户端提供服务。而客户端如果要和特定的系统服务端通讯,就需要向Service Manager来查询和获得所需要服务。可以看出Service Manager是系统服务对象的管理中心。
- 服务(Server)
需要强调的是这里服务是指的是System Server,而不是SDK server,向客户端提供服务。
- 客户端
一般是指Android系统上面的应用程序。它可以请求Server中的服务。
- 代理对象
是指在客户端应用程序中获取生成的Server代理(proxy)类对象。从应用程序角度看代理对象和本地对象没有差别,都可以调用其方法,方法都是同步的,并且返回相应的结果。
从源码分析MediaPlayerService
和其他介绍binder机制的博客文章一样,接下来我也会从MediaPlayerService的角度去介绍bidner(建议大家看下深入理解Android这本书),源码在framework\base\Media\MediaServer\Main_mediaserver.cpp中。之所以选择MPS,是因为这个service牵涉了许多重要的服务,比如说音频、摄像等。
int main(int argc, char** argv)
{
// 打开驱动设备,将设备文件描述符映射到内存,这快内存作为数据交互的地方
sp<ProcessState> proc(ProcessState::self());
sp<IServiceManager> sm = defaultServiceManager();
LOGI("ServiceManager: %p", sm.get());
waitBeforeAdding( String16("media.audio_flinger") );
AudioFlinger::instantiate();
waitBeforeAdding( String16("media.player") );
// 注册MediaPlayerService,
MediaPlayerService::instantiate();
waitBeforeAdding( String16("media.camera") );
CameraService::instantiate();
waitBeforeAdding( String16("media.audio_policy") );
AudioPolicyService::instantiate();
ProcessState::self()->startThreadPool();
IPCThreadState::self()->joinThreadPool();
}
首先看下ProcessState的构造函数
ProcessState::ProcessState()
: mDriverFD(open_driver())// 开启binder
, mVMStart(MAP_FAILED) // 内存映射的起始地址
, mManagesContexts(false)
, mBinderContextCheckFunc(NULL)
, mBinderContextUserData(NULL)
, mThreadPoolStarted(false)
, mThreadPoolSeq(1)
{
......
mVMStart = mmap(0, BINDER_VM_SIZE, PROT_READ, MAP_PRIVATE | MAP_NORESERVE, mDriverFD, 0);
.....
}
上述ProcessState构造函数代码首先调用open_driver()方法,进入看看先:
static int open_driver()
{
if (gSingleProcess) {
return -1;
}
// 打开binder设备,设备成功打开返回一个设备的文件描述符
int fd = open("/dev/binder", O_RDWR);
if (fd >= 0) {
// 改变已经打开的文件的性质。如果FD_CLOEXEC位是0,执行execve的过程中,文件保持打开。反之则关闭。
fcntl(fd, F_SETFD, FD_CLOEXEC);
int vers;
#if defined(HAVE_ANDROID_OS)
status_t result = ioctl(fd, BINDER_VERSION, &vers);
#else
status_t result = -1;
errno = EPERM;
#endif
if (result == -1) {
LOGE("Binder ioctl to obtain version failed: %s", strerror(errno));
close(fd);
fd = -1;
}
if (result != 0 || vers != BINDER_CURRENT_PROTOCOL_VERSION) {
LOGE("Binder driver protocol does not match user space protocol!");
close(fd);
fd = -1;
}
#if defined(HAVE_ANDROID_OS)
size_t maxThreads = 15;
result = ioctl(fd, BINDER_SET_MAX_THREADS, &maxThreads);
if (result == -1) {
LOGE("Binder ioctl to set max threads failed: %s", strerror(errno));
}
#endif
} else {
LOGW("Opening ‘/dev/binder‘ failed: %s\n", strerror(errno));
}
return fd;
}
open_driver是打开binder设备 /dev/binder文件,打开成功后会返回一个文件描述符,接着调用fcntl函数来改变刚才打开的设备文件的性质。接着在调用ioctl函数,ioctl是设备驱动程序中对设备的I/O通道进行管理的函数。所谓对I/O通道进行管理,就是对设备的一些特性进行控制,例如串口的传输波特率、马达的转速等等,BINDER_SET_MAX_THREADS 就是用户程序对设备的控制命令,maxThreads则是补充参数,这句话的意思就是告诉binder驱动,这个文件描述符支持的最大线程数。在构造函数中使用mmap函数将该文件描述符映射到内存中,以便使用这块内存来接受数据。构造函数中做了两件比较重要的事情:
- 打开了/dev/binder设备文件,获取了一个与设备文件相关联的文件描述符,这也就相当于获得了一个与内核的binder驱动有了交互的通道。
- 使用mmap函数将该文件描述符映射到内存中,以便使用这块内存来接受数据。
接着再回到ProcessState::self()中来看看:
sp<ProcessState> ProcessState::self()
{
if (gProcess != NULL) return gProcess;
AutoMutex _l(gProcessMutex);
if (gProcess == NULL) gProcess = new ProcessState;
return gProcess;
}
这个self仅仅是返回了ProcessState对象,ProcessState是以单例模式设计的,主要用来维护当前进程和binder设备通信时的一个状态。
有了和binder驱动的交互通道后,接下来做了什么呢?我们看下以下这段代码:
sp<IServiceManager> sm = defaultServiceManager();
defaultServiceManager的业务实现在IServiceManager.cpp中,原型如下:
sp<IServiceManager> defaultServiceManager(){
if (gDefaultServiceManager != NULL)return gDefaultServiceManager;
AutoMutex _l(gDefaultServiceManagerLock);
if (gDefaultServiceManager == NULL) {
gDefaultServiceManager = interface_cast<IServiceManager>(ProcessState::self()->getContextObject(NULL));
}
return gDefaultServiceManager;
}
最重要的就是这句代码了:
gDefaultServiceManager = interface_cast<IServiceManager>(ProcessState::self()->getContextObject(NULL))
再回到ProcessState中去看看getContextObject的实现
sp<IBinder> ProcessState::getContextObject(const sp<IBinder>& caller)
{
if (supportsProcesses()) {
return getStrongProxyForHandle(0);
} else {
return getContextObject(String16("default"), caller);
}
}
supportsProcesses()就是说当前的设备是否支持进程,这毫无疑问,真实的设备肯定是支持的,所以接下来肯定是要走getStrongProxyForHandle(0)方法的。
sp<IBinder> ProcessState::getStrongProxyForHandle(int32_t handle)
{
sp<IBinder> result;
AutoMutex _l(mLock);
handle_entry* e = lookupHandleLocked(handle);
if (e != NULL) {
IBinder* b = e->binder;
if (b == NULL || !e->refs->attemptIncWeak(this)) {
b = new BpBinder(handle); // 创建一个BpBinder
e->binder = b;// 给资源项填充这个binder
if (b) e->refs = b->getWeakRefs();
result = b;
} else {
// This little bit of nastyness is to allow us to add a primary
// reference to the remote proxy when this team doesn‘t have one
// but another team is sending the handle to us.
result.force_set(b);
e->refs->decWeak(this);
}
}
// 返回了new BpBinder(0); /
return result;
}
lookupHandleLocked函数用来查找对应的资源,一开始肯定是没有的,所以走b==null的分支,在这个分支里面使用handler==0作为参数新建了一个BpBinder,然后把这个binder赋值给了handle_entry的binder属性,最后把这个BpBinder对象返回,也就是说返回的是new BpBinder(0)。我觉得这里面应该是把handle_entry资源项和当前进程挂钩的,要不然这里为啥要把BpBinder和这个资源项绑定在一起呢。
在这里有两个比较重要的东西,就是BpBinder和BBinder,他们两个是成双成对的出现,BpBinder是客户端和服务端的代理类,而BBinder也就是BpBinder对立的一端,代表客户端要交互的目的端。换种说法讲就是BpBinder如果是客户端,那么BBinder则是服务端。
接下来gDefaultServiceManager = interface_cast(ProcessState::self()->getContextObject(NULL))就应该转变为如下的代码了:
gDefaultServiceManager = interface_cast<IServiceManager>(BpBinder)
这个interface_cast方法描述如下:
template<typename INTERFACE>
inline sp<INTERFACE> interface_cast(const sp<IBinder>& obj)
{
return INTERFACE::asInterface(obj);
}
interface_cast是一个模板方法,INTERFACE代表的就是IserviceManager,里面调用的是IserviceManager.asInterface方法,而在这个方法里面,则是利用了BpBinder对象构建了一个BpManagerService对象,我们知道BpBinder和BBinder两者是一个相互通信的关系,那么为什么这里又来了个BpManagerService,BpManagerService实现了IServiceManager中的业务函数,并且BpManagerService中有个mRemote对象指向了BpBinder对象。就这样,BpManagerService实现了业务函数并且也有了和服务端进行通信的代表。接下来就分析一下服务的注册了。
在MediaPlayerService.cpp中:
void MediaPlayerService::instantiate() {
// defaultServiceManager实际上返回的是BpManagerService,是IServiceManager的后代
defaultServiceManager()->addService(String16("media.player"), new MediaPlayerService());
}
defaultServiceManager()返回的就是BpManagerService,其实现了IServiceManager的业务方法,所以我们要去BpManagerService中看看addService的实现:
virtual status_t addService(const String16& name, const sp<IBinder>& service)
{
Parcel data, reply; // 数据包
data.writeInterfaceToken(IServiceManager::getInterfaceDescriptor());
data.writeString16(name);
data.writeStrongBinder(service);
// 将数据打包后,把通信的工作交给了BpServiceManager
// 这个remote其实就也就是mRemote,也就是BpBinder对象
// 数据打包后,传给了BpBinder对象的transact函数,也就意味着把通信的工作交给了BpBinder对象来完成
status_t err = remote()->transact(ADD_SERVICE_TRANSACTION, data, &reply);
// 所以addService函数其实就是一个业务层的函数,工作很简单,就是把数据打包后,再交给通信层去处理
return err == NO_ERROR ? reply.readExceptionCode() : err;
}
Parcel我们可以理解成一个在进程间传送的数据包,data是我们要发送的数据包,而reply则是服务返回过来的数据包,数据打包后,交由remote()函数的transact方法执行,remote()方法返回的就是BpManagerService中的mRemote对象,这个对象指向的是之前的BpBinder对象,所以与服务通信的工作就交给了BpBinder对象来完成,下面前往BpBinder中去看看这个方法的实现:
status_t BpBinder::transact(uint32_t code, const Parcel& data, Parcel* reply, uint32_t flags)
{
// Once a binder has died, it will never come back to life.
if (mAlive) {
status_t status = IPCThreadState::self()->transact(mHandle, code, data, reply, flags);
if (status == DEAD_OBJECT) mAlive = 0;
return status;
}
return DEAD_OBJECT;
}
BpBinder其实没有什么可以做的实际工作,也就是个表象,这个真实工作又交给了IPCThreadState的transact,IPCThreadState才是在进程中真正干活的伙计,前往IPCThreadState.cpp中看看:
status_t IPCThreadState::transact(int32_t handle,
uint32_t code, const Parcel& data,
Parcel* reply, uint32_t flags)
{
......
if (err == NO_ERROR) {
LOG_ONEWAY(">>>> SEND from pid %d uid %d %s", getpid(), getuid(),
(flags & TF_ONE_WAY) == 0 ? "READ REPLY" : "ONE WAY");
// handle值为0,代表通信的目的端
// BC_TRANSACTION参数: 应用程序向binder设备发送消息的消息码。
// 而binder设备向应用程序回复消息码以BR_开头。
// 先发数据,然后等待结果返回
// 其实在这个方法里面只是把数据写入到mOut中,并没有发出去
err = writeTransactionData(BC_TRANSACTION, flags, handle, code, data, NULL);
}
........
if ((flags & TF_ONE_WAY) == 0) {
............
#endif
if (reply) {
err = waitForResponse(reply);
} else {
Parcel fakeReply;
err = waitForResponse(&fakeReply);
}
#if 0
.........
} else {
err = waitForResponse(NULL, NULL);
}
return err;
}
writeTransactionData看样子就只是把数据写入到一个地方了,原型如下:
status_t IPCThreadState::writeTransactionData(int32_t cmd, uint32_t binderFlags,
int32_t handle, uint32_t code, const Parcel& data, status_t* statusBuffer)
{
binder_transaction_data tr;
//handle是0,表示目的端
tr.target.handle = handle;
// 消息码
tr.code = code;
tr.flags = binderFlags;
const status_t err = data.errorCheck();
if (err == NO_ERROR) {
tr.data_size = data.ipcDataSize();
tr.data.ptr.buffer = data.ipcData();
tr.offsets_size = data.ipcObjectsCount()*sizeof(size_t);
tr.data.ptr.offsets = data.ipcObjects();
} else if (statusBuffer) {
tr.flags |= TF_STATUS_CODE;
*statusBuffer = err;
tr.data_size = sizeof(status_t);
tr.data.ptr.buffer = statusBuffer;
tr.offsets_size = 0;
tr.data.ptr.offsets = NULL;
} else {
return (mLastError = err);
}
mOut.writeInt32(cmd);
mOut.write(&tr, sizeof(tr));
return NO_ERROR;
}
这个方法只是直接把命令直接写到out中去,并没有把这个消息发出去,所以继续往下看waitForResponse方法,承载了发送和接受数据的工作肯定就在这里面了:
status_t IPCThreadState::waitForResponse(Parcel *reply, status_t *acquireResult)
{
int32_t cmd;
int32_t err;
while (1) {
if ((err=talkWithDriver()) < NO_ERROR) break;
err = mIn.errorCheck();
if (err < NO_ERROR) break;
if (mIn.dataAvail() == 0) continue;
cmd = mIn.readInt32();
IF_LOG_COMMANDS() {
alog << "Processing waitForResponse Command: "
<< getReturnString(cmd) << endl;
}
switch (cmd) {
case BR_TRANSACTION_COMPLETE:
if (!reply && !acquireResult) goto finish;
break;
case BR_DEAD_REPLY:
err = DEAD_OBJECT;
goto finish;
case BR_FAILED_REPLY:
err = FAILED_TRANSACTION;
goto finish;
case BR_ACQUIRE_RESULT:
{
LOG_ASSERT(acquireResult != NULL, "Unexpected brACQUIRE_RESULT");
const int32_t result = mIn.readInt32();
if (!acquireResult) continue;
*acquireResult = result ? NO_ERROR : INVALID_OPERATION;
}
goto finish;
case BR_REPLY:
{
binder_transaction_data tr;
err = mIn.read(&tr, sizeof(tr));
LOG_ASSERT(err == NO_ERROR, "Not enough command data for brREPLY");
if (err != NO_ERROR) goto finish;
if (reply) {
if ((tr.flags & TF_STATUS_CODE) == 0) {
reply->ipcSetDataReference(
reinterpret_cast<const uint8_t*>(tr.data.ptr.buffer),
tr.data_size,
reinterpret_cast<const size_t*>(tr.data.ptr.offsets),
tr.offsets_size/sizeof(size_t),
freeBuffer, this);
} else {
err = *static_cast<const status_t*>(tr.data.ptr.buffer);
freeBuffer(NULL,
reinterpret_cast<const uint8_t*>(tr.data.ptr.buffer),
tr.data_size,
reinterpret_cast<const size_t*>(tr.data.ptr.offsets),
tr.offsets_size/sizeof(size_t), this);
}
} else {
freeBuffer(NULL,
reinterpret_cast<const uint8_t*>(tr.data.ptr.buffer),
tr.data_size,
reinterpret_cast<const size_t*>(tr.data.ptr.offsets),
tr.offsets_size/sizeof(size_t), this);
continue;
}
}
goto finish;
default:
err = executeCommand(cmd);
if (err != NO_ERROR) goto finish;
break;
}
}
finish:
if (err != NO_ERROR) {
if (acquireResult) *acquireResult = err;
if (reply) reply->setError(err);
mLastError = err;
}
return err;
}
waitForResponse承载了发送和接受数据,那么发送给binder驱动,这个过程是怎么通信的呢?看下talkWithDriver函数:
status_t IPCThreadState::talkWithDriver(bool doReceive)
{
LOG_ASSERT(mProcess->mDriverFD >= 0, "Binder driver is not opened");
// binder_write_read是与binder驱动交换数据的结构
binder_write_read bwr;
// Is the read buffer empty?
const bool needRead = mIn.dataPosition() >= mIn.dataSize();
// We don‘t want to write anything if we are still reading
// from data left in the input buffer and the caller
// has requested to read the next data.
const size_t outAvail = (!doReceive || needRead) ? mOut.dataSize() : 0;
// 请求命令的填充
bwr.write_size = outAvail;
bwr.write_buffer = (long unsigned int)mOut.data();
// This is what we‘ll read.
if (doReceive && needRead) {
// 接受数据缓冲区信息的填充,如果以后收到数据了,就直接填在mIn中
bwr.read_size = mIn.dataCapacity();
bwr.read_buffer = (long unsigned int)mIn.data();
} else {
bwr.read_size = 0;
}
IF_LOG_COMMANDS() {
TextOutput::Bundle _b(alog);
if (outAvail != 0) {
alog << "Sending commands to driver: " << indent;
const void* cmds = (const void*)bwr.write_buffer;
const void* end = ((const uint8_t*)cmds)+bwr.write_size;
alog << HexDump(cmds, bwr.write_size) << endl;
while (cmds < end) cmds = printCommand(alog, cmds);
alog << dedent;
}
alog << "Size of receive buffer: " << bwr.read_size
<< ", needRead: " << needRead << ", doReceive: " << doReceive << endl;
}
// Return immediately if there is nothing to do.
// 如果没有任何的数据交换,则立马返回
if ((bwr.write_size == 0) && (bwr.read_size == 0)) return NO_ERROR;
bwr.write_consumed = 0;
bwr.read_consumed = 0;
status_t err;
do {
IF_LOG_COMMANDS() {
alog << "About to read/write, write size = " << mOut.dataSize() << endl;
}
#if defined(HAVE_ANDROID_OS)
if (ioctl(mProcess->mDriverFD, BINDER_WRITE_READ, &bwr) >= 0)
err = NO_ERROR;
else
err = -errno;
#else
err = INVALID_OPERATION;
#endif
IF_LOG_COMMANDS() {
alog << "Finished read/write, write size = " << mOut.dataSize() << endl;
}
} while (err == -EINTR);
IF_LOG_COMMANDS() {
alog << "Our err: " << (void*)err << ", write consumed: "
<< bwr.write_consumed << " (of " << mOut.dataSize()
<< "), read consumed: " << bwr.read_consumed << endl;
}
if (err >= NO_ERROR) {
if (bwr.write_consumed > 0) {
if (bwr.write_consumed < (ssize_t)mOut.dataSize())
mOut.remove(0, bwr.write_consumed);
else
mOut.setDataSize(0);
}
if (bwr.read_consumed > 0) {
mIn.setDataSize(bwr.read_consumed);
mIn.setDataPosition(0);
}
IF_LOG_COMMANDS() {
TextOutput::Bundle _b(alog);
alog << "Remaining data size: " << mOut.dataSize() << endl;
alog << "Received commands from driver: " << indent;
const void* cmds = mIn.data();
const void* end = mIn.data() + mIn.dataSize();
alog << HexDump(cmds, mIn.dataSize()) << endl;
while (cmds < end) cmds = printReturnCommand(alog, cmds);
alog << dedent;
}
return NO_ERROR;
}
return err;
}
看来这里和binder驱动设备进行通信并不是使用read/write方式,而是ioctl方式。这样就完成了binder通信了。
就分析到这里吧。有空再深入研究
版权声明:本文为博主原创文章,未经博主允许不得转载(联系方式:QQ:312037487 邮箱:[email protected])。