1.简介:

在上一篇(Android系统源码分析-从init进程开始 )中,我们已经看到,servicemanager是init进程通过init.rc的service指令来启动的守护进程。用linux的ps命令也可以看到servicemanager进程是init进程的子进程。那么,这个进程的作用是什么?他的初始化过程又是怎样被执行的?本节我们一起来分析一下。

Binder源码分析系列文章:

Android系统源码分析-进程间通信机制binder(一):守护进程servicemanager

Android系统源码分析-进程间通信机制binder(二):binder内存映射

Android系统源码分析-进程间通信机制binder(三):从framework层到Native层

Android系统源码分析-进程间通信机制binder(四):从Native层到Driver层

2.servicemanager进程的作用-Android进程间通信的基石:

 Android系统是基于Linux系统的,从进程的角度来说,Android继承了Linux的进程间通信机制,例如共享内存,信号量,管道,socket等,除此之外,Android系统的最大特点之一就是提供了独有的进程间通信机制,即binder机制。而servicemanager进程正是支持binder机制的基石。

在应用开发时,经常通过mContext.getSystemService(xxx)来获取一个系统服务,其实,在Android系统底层(kernel之上),就是通过servicemanager进程来获取的这个服务。例如,

获取输入法服务的代码如下:

(InputMethodManager) mContext.getSystemService(Context.INPUT_METHOD_SERVICE);

servicemanager进程的作用:

servicemanger提供了注册服务,查询服务等功能。

3.servicemanager进程的代码分析(初始化):

 在代码分析过程中,主要从一下几个角度去看待:

初始化流程

注册一个service的流程

binder的底层数据存储结构

servicemanager进程的代码位置:

servicemanager进程是一个守护进程,核心代码都是用c语言编写的,代码目录是:

frameworks/base/cmds/servicemanager

代码:

3.1从service_manager.c文件的main函数开始开始

service_manager.c文件的main韩式是整个进程的入口函数。代码如下:

int main(int argc, char **argv)
{
    struct binder_state *bs;
    void *svcmgr = BINDER_SERVICE_MANAGER;

    bs = binder_open(128*1024);

    if (binder_become_context_manager(bs)) {
        ALOGE("cannot become context manager (%s)\n", strerror(errno));
        return -1;
    }

    svcmgr_handle = svcmgr;
    binder_loop(bs, svcmgr_handler);
    return 0;
}

可以看到,仅仅十几行代码,看起来也非常精美。

代码分析:

1. BINDER_SERVICE_MANAGER的值的定义(在binder.h)如下:

#define BINDER_SERVICE_MANAGER ((void*) 0)

这个值有什么意义呢?

每一个service都需要注册到servicemanager中,都对应有一个handler,这些service就是通过这个handler来区分的。而servicemanager本省也是一个service,它的handler是0,即BINDER_SERVICE_MANAGER。要查找一个service,都是从servicemanager开始进行查询。

2. binder_open(128*1024)

非常重要的一个函数。这个函数主要功能就是初始化binder。即打开binder驱动并且映射到一块128*1024大小的内存中。

binder_open的代码如下:

在binder.c中:

struct binder_state *binder_open(unsigned mapsize)
{
    struct binder_state *bs;

    bs = malloc(sizeof(*bs));
    if (!bs) {
        errno = ENOMEM;
        return 0;
    }

    bs->fd = open("/dev/binder", O_RDWR);
    if (bs->fd < 0) {
        fprintf(stderr,"binder: cannot open device (%s)\n",
                strerror(errno));
        goto fail_open;
    }

    bs->mapsize = mapsize;
    bs->mapped = mmap(NULL, mapsize, PROT_READ, MAP_PRIVATE, bs->fd, 0);
    if (bs->mapped == MAP_FAILED) {
        fprintf(stderr,"binder: cannot map device (%s)\n",
                strerror(errno));
        goto fail_map;
    }

        /* TODO: check version */

    return bs;

fail_map:
    close(bs->fd);
fail_open:
    free(bs);
    return 0;
}

分析:

1). bs->fd = open("/dev/binder", O_RDWR);

打开 了驱动/dev/binder。可以看出,原理binder最底层是有一个/dev/binder存在的。

2). mmap:通过mmap系统调用把/dev/binder映射在一块内存中,大小就是128*1024byters。

3).返回的是 struct binder_state 类型的一个指针,这个结构体中保存了binder驱动的文件句柄,内存映射大小,以及这块内存区域的地址等。

struct binder_state的定义:


struct binder_state
{
    int fd;
    void *mapped;
    unsigned mapsize;
};

 另外一个非常重要的数据结构是:struct svcinfo

struct svcinfo 
{
    struct svcinfo *next;
    void *ptr;
    struct binder_death death;
    int allow_isolated;
    unsigned len;
    uint16_t name[0];
};

这是一个列表,存放的就是所有注册的service。

通过这个列表就能遍历到所有的service。 

3. binder_become_context_manager函数:

int binder_become_context_manager(struct binder_state *bs)
{
    return ioctl(bs->fd, BINDER_SET_CONTEXT_MGR, 0);
}

分析:

通过ioctl servicemanaer就成为了service的服务管理者。

4.binder_loop函数:

void binder_loop(struct binder_state *bs, binder_handler func)
{
    int res;
    struct binder_write_read bwr;
    unsigned readbuf[32];

    bwr.write_size = 0;
    bwr.write_consumed = 0;
    bwr.write_buffer = 0;
    
    readbuf[0] = BC_ENTER_LOOPER;
    binder_write(bs, readbuf, sizeof(unsigned));

    for (;;) {
        bwr.read_size = sizeof(readbuf);
        bwr.read_consumed = 0;
        bwr.read_buffer = (unsigned) readbuf;

        res = ioctl(bs->fd, BINDER_WRITE_READ, &bwr);

        if (res < 0) {
            ALOGE("binder_loop: ioctl failed (%s)\n", strerror(errno));
            break;
        }

        res = binder_parse(bs, 0, readbuf, bwr.read_consumed, func);
        if (res == 0) {
            ALOGE("binder_loop: unexpected reply?!\n");
            break;
        }
        if (res < 0) {
            ALOGE("binder_loop: io error %d %s\n", res, strerror(errno));
            break;
        }
    }
}

 分析:

在loop中,不停地通过ioctl对/dev/binder驱动进行访问,

readbuf用于存储读取到的消息数据;

BINDER_WRITE_READ用于读取消息数据。

然后,再进行解析,即

        res = binder_parse(bs, 0, readbuf, bwr.read_consumed, func);

再看binder_parse是如何工作的:

int binder_parse(struct binder_state *bs, struct binder_io *bio,
                 uint32_t *ptr, uint32_t size, binder_handler func)
{
    int r = 1;
    uint32_t *end = ptr + (size / 4);

    while (ptr < end) {
        uint32_t cmd = *ptr++;
#if TRACE
        fprintf(stderr,"%s:\n", cmd_name(cmd));
#endif
        switch(cmd) {
        case BR_NOOP:
            break;
        case BR_TRANSACTION_COMPLETE:
            break;
        case BR_INCREFS:
        case BR_ACQUIRE:
        case BR_RELEASE:
        case BR_DECREFS:
#if TRACE
            fprintf(stderr,"  %08x %08x\n", ptr[0], ptr[1]);
#endif
            ptr += 2;
            break;
        case BR_TRANSACTION: {
            struct binder_txn *txn = (void *) ptr;
            if ((end - ptr) * sizeof(uint32_t) < sizeof(struct binder_txn)) {
                ALOGE("parse: txn too small!\n");
                return -1;
            }
            binder_dump_txn(txn);
            if (func) {
                unsigned rdata[256/4];
                struct binder_io msg;
                struct binder_io reply;
                int res;

                bio_init(&reply, rdata, sizeof(rdata), 4);
                bio_init_from_txn(&msg, txn);
                res = func(bs, txn, &msg, &reply);
                binder_send_reply(bs, &reply, txn->data, res);
            }
            ptr += sizeof(*txn) / sizeof(uint32_t);
            break;
        }
        case BR_REPLY: {
            struct binder_txn *txn = (void*) ptr;
            if ((end - ptr) * sizeof(uint32_t) < sizeof(struct binder_txn)) {
                ALOGE("parse: reply too small!\n");
                return -1;
            }
            binder_dump_txn(txn);
            if (bio) {
                bio_init_from_txn(bio, txn);
                bio = 0;
            } else {
                    /* todo FREE BUFFER */
            }
            ptr += (sizeof(*txn) / sizeof(uint32_t));
            r = 0;
            break;
        }
        case BR_DEAD_BINDER: {
            struct binder_death *death = (void*) *ptr++;
            death->func(bs, death->ptr);
            break;
        }
        case BR_FAILED_REPLY:
            r = -1;
            break;
        case BR_DEAD_REPLY:
            r = -1;
            break;
        default:
            ALOGE("parse: OOPS %d\n", cmd);
            return -1;
        }
    }

    return r;
}

 分析:

1). 解析以BR开头的这些命令;

2). 以case BR_TRANSACTION为例子:

        case BR_TRANSACTION: {
            ...
            res = func(bs, txn, &msg, &reply); //处理消息
            //返回处理结果
            inder_send_reply(bs, &reply, txn->data.ptr.buffer, res); 
            ...
            break;
        }

res = func(bs, txn, &msg, &reply);

作用:用于处理消息;func就是在前面已经注册的service的handler,可以认为是具体的service。通过func,就回调到了具体的service中的对应函数中。

inder_send_reply(bs, &reply, txn->data.ptr.buffer, res); :

作用:返回处理结果。

4. 注册service:

在binder_loop中的第二个参数,即svcmgr_handler,

这个就是service的注册函数,具体代码如下:

int svcmgr_handler(struct binder_state *bs,
                   struct binder_txn *txn,
                   struct binder_io *msg,
                   struct binder_io *reply)
{
    struct svcinfo *si;
    uint16_t *s;
    unsigned len;
    void *ptr;
    uint32_t strict_policy;
    int allow_isolated;

//    ALOGI("target=%p code=%d pid=%d uid=%d\n",
//         txn->target, txn->code, txn->sender_pid, txn->sender_euid);

    if (txn->target != svcmgr_handle)
        return -1;

    // Equivalent to Parcel::enforceInterface(), reading the RPC
    // header with the strict mode policy mask and the interface name.
    // Note that we ignore the strict_policy and don't propagate it
    // further (since we do no outbound RPCs anyway).
    strict_policy = bio_get_uint32(msg);
    s = bio_get_string16(msg, &len);
    if ((len != (sizeof(svcmgr_id) / 2)) ||
        memcmp(svcmgr_id, s, sizeof(svcmgr_id))) {
        fprintf(stderr,"invalid id %s\n", str8(s));
        return -1;
    }

    switch(txn->code) {
    case SVC_MGR_GET_SERVICE:
    case SVC_MGR_CHECK_SERVICE:
        s = bio_get_string16(msg, &len);
        ptr = do_find_service(bs, s, len, txn->sender_euid);
        if (!ptr)
            break;
        bio_put_ref(reply, ptr);
        return 0;

    case SVC_MGR_ADD_SERVICE:
        s = bio_get_string16(msg, &len);
        ptr = bio_get_ref(msg);
        allow_isolated = bio_get_uint32(msg) ? 1 : 0;
        if (do_add_service(bs, s, len, ptr, txn->sender_euid, allow_isolated))
            return -1;
        break;

    case SVC_MGR_LIST_SERVICES: {
        unsigned n = bio_get_uint32(msg);

        si = svclist;
        while ((n-- > 0) && si)
            si = si->next;
        if (si) {
            bio_put_string16(reply, si->name);
            return 0;
        }
        return -1;
    }
    default:
        ALOGE("unknown code %d\n", txn->code);
        return -1;
    }

    bio_put_uint32(reply, 0);
    return 0;
}

 分析:

1)case SVC_MGR_ADD_SERVICE:的执行就是service的注册;

2)case SVC_MGR_CHECK_SERVICE:的执行就是service的查询;

3)case SVC_MGR_LIST_SERVICES:的执行就是列出所有service。

do_add_service函数:

如果已经注册了对应的service,就不再注册。否则,将新的节点添加到svclist中。

这样,整个servicemangar进程就初始化完成了。再总结一下:

打开binder驱动->注册servicemanager(handler为0)->binder loop。


Android进程间通信之binder,必须掌握的底层代码。

GitHub 加速计划 / li / linux-dash
10.39 K
1.2 K
下载
A beautiful web dashboard for Linux
最近提交(Master分支:2 个月前 )
186a802e added ecosystem file for PM2 4 年前
5def40a3 Add host customization support for the NodeJS version 4 年前
Logo

旨在为数千万中国开发者提供一个无缝且高效的云端环境,以支持学习、使用和贡献开源项目。

更多推荐