android中OpenMax的实现【3】OMX中主要成员

原文 http://blog.csdn.net/tx3344/article/details/8117908

通过上文知道了,每个AwesomePlayer 只有一个OMX服务的入口,但是AwesomePlayer不一定就只需要1种解码器。有可能音视频都有,或者有很多种。这个时候这些解码器都需要OMX的服务,也就是OMX那头需要建立不同的解码器的组件来对应着AwesomePlayer中不同的code。OMX中非常重要的2个成员就是 OMXMaster 和 OMXNodeInstance。OMX通过这俩个成员来创建和维护不同的openmax 解码器组件,为AwesomePlayer中不同解码提供服务。让我们看看他们是怎么实现这些工作的。

1. OMX中 OMXNodeInstance 负责创建并维护不同的实例,这些实例是根据上面需求创建的,以node作为唯一标识。这样播放器中每个OMXCodec在OMX服务端都对应有了自己的OMXNodeInstance实例。

2.OMXMaster 维护底层软硬件解码库,根据OMXNodeInstance中想要的解码器来创建解码实体组件。

接下来我们假设视频解码器需要的是AVC,来看看解码器创建的流程。

(默认走软解码)

1.准备工作初始化OMXMaster

OMX构造函数中会进行初始化。

[cpp] view plaincopy

  1. OMXMaster *mMaster;

[cpp] view plaincopy

  1. OMX::OMX()
  2. : mMaster(new OMXMaster),
  3. mNodeCounter(0) {
  4. }

[cpp] view plaincopy

  1. OMXMaster::OMXMaster()
  2. : mVendorLibHandle(NULL) {
  3. addVendorPlugin();
  4. addPlugin(new SoftOMXPlugin);
  5. }

OMXMaster 负责OMX中编解码器插件管理,软件解码和硬件解码都是使用OMX标准,挂载plugins的方式来进行管理。

软解通过 addPlugin(new SoftOMXPlugin);会把这些编解码器的名字都放在mPluginByComponentName中。

android 默认会提供一系列的软件解码器。目前支持这些格式的软编解码。

[cpp] view plaincopy

  1. kComponents[] = {
  2. { "OMX.google.aac.decoder", "aacdec", "audio_decoder.aac" },
  3. { "OMX.google.aac.encoder", "aacenc", "audio_encoder.aac" },
  4. { "OMX.google.amrnb.decoder", "amrdec", "audio_decoder.amrnb" },
  5. { "OMX.google.amrnb.encoder", "amrnbenc", "audio_encoder.amrnb" },
  6. { "OMX.google.amrwb.decoder", "amrdec", "audio_decoder.amrwb" },
  7. { "OMX.google.amrwb.encoder", "amrwbenc", "audio_encoder.amrwb" },
  8. { "OMX.google.h264.decoder", "h264dec", "video_decoder.avc" },
  9. { "OMX.google.h264.encoder", "h264enc", "video_encoder.avc" },
  10. { "OMX.google.g711.alaw.decoder", "g711dec", "audio_decoder.g711alaw" },
  11. { "OMX.google.g711.mlaw.decoder", "g711dec", "audio_decoder.g711mlaw" },
  12. { "OMX.google.h263.decoder", "mpeg4dec", "video_decoder.h263" },
  13. { "OMX.google.h263.encoder", "mpeg4enc", "video_encoder.h263" },
  14. { "OMX.google.mpeg4.decoder", "mpeg4dec", "video_decoder.mpeg4" },
  15. { "OMX.google.mpeg4.encoder", "mpeg4enc", "video_encoder.mpeg4" },
  16. { "OMX.google.mp3.decoder", "mp3dec", "audio_decoder.mp3" },
  17. { "OMX.google.vorbis.decoder", "vorbisdec", "audio_decoder.vorbis" },
  18. { "OMX.google.vpx.decoder", "vpxdec", "video_decoder.vpx" },
  19. { "OMX.google.raw.decoder", "rawdec", "audio_decoder.raw" },
  20. { "OMX.google.flac.encoder", "flacenc", "audio_encoder.flac" },
  21. };

硬件编解码是通过 addVendorPlugin();加载libstagefrighthw.so.各个芯片平台可以遵循openmax 标准,生成libstagefrighthw.so的库来提供android应用。

[cpp] view plaincopy

  1. void OMXMaster::addVendorPlugin() {
  2. addPlugin("libstagefrighthw.so");
  3. }

然后通过dlopen、dlsym来调用库中的函数。

这部分准备工作是在AwesomePlayer的构造函数中

CHECK_EQ(mClient.connect(), (status_t)OK); 已经完成了。

2.创建mVideoSource

有了上面的OMX,接下来会在AwesomePlayer::initVideoDecoder中创建mVideoSource 实例,下面代码只保留的主要部分:

[cpp] view plaincopy

  1. status_t AwesomePlayer::initVideoDecoder(uint32_t flags) {
  2. ATRACE_CALL();
  3. mVideoSource = OMXCodec::Create(
  4. mClient.interface(), mVideoTrack->getFormat(),
  5. false, // createEncoder
  6. mVideoTrack,
  7. NULL, flags, USE_SURFACE_ALLOC ? mNativeWindow : NULL);
  8. status_t err = mVideoSource->start();
  9. return mVideoSource != NULL ? OK : UNKNOWN_ERROR;
  10. }

保留主要部分,去除编码相关

[cpp] view plaincopy

  1. sp<MediaSource> OMXCodec::Create(
  2. const sp<IOMX> &omx,
  3. const sp<MetaData> &meta, bool createEncoder,
  4. const sp<MediaSource> &source,
  5. const char *matchComponentName,
  6. uint32_t flags,
  7. const sp<ANativeWindow> &nativeWindow) {
  8. int32_t requiresSecureBuffers;
  9. const char *mime;
  10. bool success = meta->findCString(kKeyMIMEType, &mime);
  11. CHECK(success);
  12. Vector<String8> matchingCodecs;
  13. Vector<uint32_t> matchingCodecQuirks;
  14. findMatchingCodecs(
  15. mime, createEncoder, matchComponentName, flags,
  16. &matchingCodecs, &matchingCodecQuirks);
  17. sp<OMXCodecObserver> observer = new OMXCodecObserver;
  18. IOMX::node_id node = 0;
  19. for (size_t i = 0; i < matchingCodecs.size(); ++i) {
  20. const char *componentNameBase = matchingCodecs[i].string();
  21. uint32_t quirks = matchingCodecQuirks[i];
  22. const char *componentName = componentNameBase;
  23. AString tmp;
  24. status_t err = omx->allocateNode(componentName, observer, &node);
  25. if (err == OK) {
  26. ALOGV("Successfully allocated OMX node ‘%s‘", componentName);
  27. sp<OMXCodec> codec = new OMXCodec(
  28. omx, node, quirks, flags,
  29. createEncoder, mime, componentName,
  30. source, nativeWindow);
  31. observer->setCodec(codec);
  32. err = codec->configureCodec(meta);
  33. if (err == OK) {
  34. if (!strcmp("OMX.Nvidia.mpeg2v.decode", componentName)) {
  35. codec->mFlags |= kOnlySubmitOneInputBufferAtOneTime;
  36. }
  37. return codec;
  38. }
  39. ALOGV("Failed to configure codec ‘%s‘", componentName);
  40. }
  41. }
  42. return NULL;
  43. }

1.根据mVideoTrack传进来的视频信息,查找相匹配的解码器。

[cpp] view plaincopy

  1. bool success = meta->findCString(kKeyMIMEType, &mime);
  2. findMatchingCodecs(
  3. mime, createEncoder, matchComponentName, flags,
  4. &matchingCodecs, &matchingCodecQuirks);

2. 创建OMXCodecObserver 实例,OMXCodecObserver功能后续会详细介绍。创建一个node 并初始化为0.

[cpp] view plaincopy

  1. sp<OMXCodecObserver> observer = new OMXCodecObserver;
  2. IOMX::node_id node = 0;

3. 通过omx入口 依靠binder 机制调用OMX服务中的allocateNode(),这一步把匹配得到的解码器组件名、OMXCodecObserver实例和初始化为0的node一并传入。

[cpp] view plaincopy

  1. status_t err = omx->allocateNode(componentName, observer, &node);

这个allocateNode 就是文章最开始讲的,在OMX那头创建一个和mVideoSource相匹配的解码实例。用node值作为唯一标识。
让我们来看看真正的omx中allocateNode做了啥?

[cpp] view plaincopy

  1. status_t OMX::allocateNode(
  2. const char *name, const sp<IOMXObserver> &observer, node_id *node) {
  3. Mutex::Autolock autoLock(mLock);
  4. *node = 0;
  5. OMXNodeInstance *instance = new OMXNodeInstance(this, observer);
  6. OMX_COMPONENTTYPE *handle;
  7. OMX_ERRORTYPE err = mMaster->makeComponentInstance(
  8. name, &OMXNodeInstance::kCallbacks,
  9. instance, &handle);
  10. if (err != OMX_ErrorNone) {
  11. ALOGV("FAILED to allocate omx component ‘%s‘", name);
  12. instance->onGetHandleFailed();
  13. return UNKNOWN_ERROR;
  14. }
  15. *node = makeNodeID(instance);
  16. mDispatchers.add(*node, new CallbackDispatcher(instance));
  17. instance->setHandle(*node, handle);
  18. mLiveNodes.add(observer->asBinder(), instance);
  19. observer->asBinder()->linkToDeath(this);
  20. return OK;
  21. }

创建一个OMXNodeInstance实例。

通过mMaster->makeComponentInstance创建真正解码器的组件,并通过handle与OMXNodeInstance关联。

所以说mMaster->makeComponentInstance这里是建立解码器组件的核心。会把mVideoSource需要的解码器name一直传递下去。

[cpp] view plaincopy

  1. OMX_ERRORTYPE OMXMaster::makeComponentInstance(
  2. const char *name,
  3. const OMX_CALLBACKTYPE *callbacks,
  4. OMX_PTR appData,
  5. OMX_COMPONENTTYPE **component) {
  6. Mutex::Autolock autoLock(mLock);
  7. *component = NULL;
  8. ssize_t index = mPluginByComponentName.indexOfKey(String8(name));
  9. if (index < 0) {
  10. return OMX_ErrorInvalidComponentName;
  11. }
  12. OMXPluginBase *plugin = mPluginByComponentName.valueAt(index);
  13. OMX_ERRORTYPE err =
  14. plugin->makeComponentInstance(name, callbacks, appData, component);
  15. if (err != OMX_ErrorNone) {
  16. return err;
  17. }
  18. mPluginByInstance.add(*component, plugin);
  19. return err;
  20. }

最开始OMXMaster通过 addPlugin(new SoftOMXPlugin);把支持的软解码放在mPluginByComponentName中,在makeComponentInstance中通过上面传下来的解码器的name值从mPluginByComponentName找到相对应的plugin,然后调用 
plugin->makeComponentInstance(name, callbacks, appData, component);

这里的plugin 值得就是软解SoftOMXPlugin 也就是调用了

[cpp] view plaincopy

  1. OMX_ERRORTYPE SoftOMXPlugin::makeComponentInstance(
  2. const char *name,
  3. const OMX_CALLBACKTYPE *callbacks,
  4. OMX_PTR appData,
  5. OMX_COMPONENTTYPE **component) {
  6. ALOGV("makeComponentInstance ‘%s‘", name);
  7. for (size_t i = 0; i < kNumComponents; ++i) {
  8. if (strcmp(name, kComponents[i].mName)) {
  9. continue;
  10. }
  11. AString libName = "libstagefright_soft_";
  12. libName.append(kComponents[i].mLibNameSuffix);
  13. libName.append(".so");
  14. void *libHandle = dlopen(libName.c_str(), RTLD_NOW);
  15. if (libHandle == NULL) {
  16. ALOGE("unable to dlopen %s", libName.c_str());
  17. return OMX_ErrorComponentNotFound;
  18. }
  19. typedef SoftOMXComponent *(*CreateSoftOMXComponentFunc)(
  20. const char *, const OMX_CALLBACKTYPE *,
  21. OMX_PTR, OMX_COMPONENTTYPE **);
  22. CreateSoftOMXComponentFunc createSoftOMXComponent =
  23. (CreateSoftOMXComponentFunc)dlsym(
  24. libHandle,
  25. "_Z22createSoftOMXComponentPKcPK16OMX_CALLBACKTYPE"
  26. "PvPP17OMX_COMPONENTTYPE");
  27. if (createSoftOMXComponent == NULL) {
  28. dlclose(libHandle);
  29. libHandle = NULL;
  30. return OMX_ErrorComponentNotFound;
  31. }
  32. sp<SoftOMXComponent> codec =
  33. (*createSoftOMXComponent)(name, callbacks, appData, component);
  34. if (codec == NULL) {
  35. dlclose(libHandle);
  36. libHandle = NULL;
  37. return OMX_ErrorInsufficientResources;
  38. }
  39. OMX_ERRORTYPE err = codec->initCheck();
  40. if (err != OMX_ErrorNone) {
  41. dlclose(libHandle);
  42. libHandle = NULL;
  43. return err;
  44. }
  45. codec->incStrong(this);
  46. codec->setLibHandle(libHandle);
  47. return OMX_ErrorNone;
  48. }
  49. return OMX_ErrorInvalidComponentName;
  50. }

通过上面传下来的解码器的name,找到对应库的名字。假如是264的话,要加载的库就是 libstagefright_soft_h264dec.so,也就是对应上层264解码的话,omx解码组件会加载对应的
libstagefright_soft_h264dec.so库。相对应的软解代码在
Android4.1.1\frameworks\av\media\libstagefright\codecs\on2\h264dec 中。

加载完264解码库后
通过dlopen、dlsym来调用库中函数。

通过调用 SoftAVC 中的 createSoftOMXComponent 来创建真正264解码器实例SoftOMXComponent。以后真正视频解码的工作都是通过avc 这个SoftAVC实例完成的

[cpp] view plaincopy

  1. android::SoftOMXComponent *createSoftOMXComponent(
  2. const char *name, const OMX_CALLBACKTYPE *callbacks,
  3. OMX_PTR appData, OMX_COMPONENTTYPE **component) {
  4. return new android::SoftAVC(name, callbacks, appData, component);
  5. }

经过这一路下来,终于完成了解码器的创建工作。简单总结一下。

1.AwesomePlayer中通过initVideoDecoder 来创建video解码器mVideoSource

2.mVideoSource 中通过上部分demux后的视频流 mVideoTrack来获得解码器的类型,通过类型调用omx->allocateNode 创建omx node实例与自己对应。以后都是通过node实例来操作解码器。

3.在 omx->allocateNode中 通过mMaster->makeComponentInstance 来创建真正对应的解码器组件。这个解码器组件是完成之后解码实际工作的。

4.在创建mMaster->makeComponentInstance过程中,也是通过上面mVideoTrack
过来的解码器类型名,找到相对应的解码器的库,然后实例化。

android中OpenMax的实现【3】OMX中主要成员

时间: 2024-10-08 03:21:01

android中OpenMax的实现【3】OMX中主要成员的相关文章

Android多媒体开发-- android中OpenMax的实现整体框架

1.android中用openmax来干啥? android中的AwesomePlayer就 是用openmax来做(code)编解码,其实在openmax接口设计中,他不光能用来当编解码.通过他的组件可以组成一个完整的播放器,包括 sourc.demux.decode.output.但是为什么android只用他来做code呢?我认为有以下几方面: 1.在整个播放器中,解码器不得不说是最重要的一部分,而且也是最耗资源的一块. 如果全靠软解,直接通过cpu来运算,特别是高清视频.别的事你就可以啥

android中OpenMax的实现【2】AwesomePlayer中openmax的入口

AwesomePlayer 中有个变量 [cpp] view plaincopy OMXClient mClient; 让我们看看   OMXClient [cpp] view plaincopy class OMXClient { public: OMXClient(); status_t connect(); void disconnect(); sp<IOMX> interface() { return mOMX; } private: sp<IOMX> mOMX; OMXC

Android下将图片载入到内存中

Android的系统的标准默认每一个应用程序分配的内存是16M.所以来说是很宝贵的,在创建应用的时候要尽可能的去节省内存,可是在载入一些大的文件的时候,比方图片是相当耗内存的,一个1.3M的图片,分辨率是2560X1920(宽X高)图片当载入到手机内存的时候就会请求19M的一块内存,这是远远超出了系统自带的内存空间,这时候应用程序就会挂掉,所以我们要进行图片的缩放处理,以下我就来带大家创建一个用来图片缩放的应用: 应用效果图例如以下: 核心代码的实现: package com.examp.loa

Android Studio 2.2.2导入Eclipse中创建的项目

最近随视频教程学习Android,原本都是用Adt写Android程序,中途教程换成了Android Studio,于是我自己下了android studio 2.2.2安装好,并下载好sdk,也跟着更换开发环境. 但教程并未讲解如何将旧有的Eclipse项目导入到Android Studio(以下简称as)中. 自己花了一整天的时间,在网上找相关文章,发现都不能完全解决问题,可能是因为新版本的as相关文章较少吧.所以在费了好一番周折自己一步步试着导入,初步搞定后,记录一下导入时遇见的问题及解决

Android下通过root实现对system_server中binder的ioctl调用拦截

Android下通过root实现对system_server中binder的ioctl调用拦截 分类: Android2013-06-19 18:09 779人阅读 评论(0) 收藏 举报 作 者: Passion时 间: 2012-10-18,13:53:53链 接: http://bbs.pediy.com/showthread.php?t=157419 Android下通过root实现对system_server中binder的ioctl调用拦截作者:passion2012-10-18关键

将android中的sample例子到eclipse中

SDK中带有很多的例子,那么我们怎么样导入到eclipse中呢?方法很简单,如下: 1. 新建android工程,选择Create project from existing sample, 2. 选择sdk的version,click Next. 3. 这时你会看到很多samples, 从下拉列表中选择你要导入的例子,finish. 注意:前提是你已经下载了samples,并且选择的是对应的sdk版本. 将android中的sample例子到eclipse中,布布扣,bubuko.com

Android笔记:获取url或uri字符串中的参数值

d Uri.parse(mArgUrl).getQueryParameter("id") Android笔记:获取url或uri字符串中的参数值

Base64编解码Android和ios的例子,补充JNI中的例子

1.在Android中java层提供了工具类:android.util.Base64; 里面都是静态方法,方便直接使用: 使用方法如下: Java代码   // Base64 编码: byte [] encode = Base64.encode("Hello, World".getBytes(), Base64.DEFAULT); String enc = new String(encode); Log.d("","base 64 encode = &qu

Android自定义控件并且使其可以在xml中自定义属性

为什么要自定义View android开发中自定义View的好处是显而易见的.比如说下面的这个顶部导航,它被设计出现在应用的每个界面,但每次的内容却不尽相同.我们不能在每个layout资源中都配置一组相同的View吧?如果使用<include layou="@layout/xxx"/>标签,虽然解决了布局文件的重用性,但是相关View的初始化设置还是没能够重用(集中),需要每次都采用view.findViewById(id)来初始化他们. 有了对"可重用性&quo