Android用surface直接显示yuv数据

研究了一段时间Android的surface系统,一直执着地认为所有在surface或者屏幕上显示的画面,必须要转换成RGB才能显示,yuv数据也要通过颜色空间转换成RGB才能显示。可最近在研究stagefright视频显示时发现,根本找不到omx解码后的yuv是怎么转换成RGB的代码,yuv数据在render之后就找不到去向了,可画面确确实实的显示出来了,这从此颠覆了yuv必须要转换成RGB才能显示的真理了。

稍微看一下AsomePlayer的代码,不难发现,视频的每一帧是通过调用了SoftwareRenderer来渲染显示的,我也尝试用利用SoftwareRenderer来直接render yuv数据显示,竟然成功了,这是一个很大的突破,比如以后摄像头采集到的yuv,可以直接丢yuv数据到surface显示,无需耗时耗效率的yuv转RGB了。

代码原创,贴出来与大家分享:Android 4.4平台 (其中yuv数据的地址可以从这里下载点击打开链接,放到/mnt/sdcard目录)

#include<include/SoftwareRenderer.h>

#include <cutils/memory.h>

#include <unistd.h>
#include <utils/Log.h>

#include <binder/IPCThreadState.h>
#include <binder/ProcessState.h>
#include <binder/IServiceManager.h>

#include <gui/Surface.h>
#include <gui/SurfaceComposerClient.h>
#include <gui/ISurfaceComposer.h>
#include <ui/DisplayInfo.h>
#include <android/native_window.h>
#include <media/stagefright/MetaData.h>

using namespace android;

bool getYV12Data(const char *path,unsigned char * pYUVData,int size){
	FILE *fp = fopen(path,"rb");
	if(fp == NULL){
		printf("read %s fail !!!!!!!!!!!!!!!!!!!\n",path);
		return false;
	}
	fread(pYUVData,size,1,fp);
	fclose(fp);
	return true;
}

int main(void){
	// set up the thread-pool
    sp<ProcessState> proc(ProcessState::self());
    ProcessState::self()->startThreadPool();

	// create a client to surfaceflinger
    sp<SurfaceComposerClient> client = new SurfaceComposerClient();
	sp<IBinder> dtoken(SurfaceComposerClient::getBuiltInDisplay(
            ISurfaceComposer::eDisplayIdMain));
	DisplayInfo dinfo;
	//获取屏幕的宽高等信息
    status_t status = SurfaceComposerClient::getDisplayInfo(dtoken, &dinfo);
	printf("w=%d,h=%d,xdpi=%f,ydpi=%f,fps=%f,ds=%f\n",
        dinfo.w, dinfo.h, dinfo.xdpi, dinfo.ydpi, dinfo.fps, dinfo.density);
    if (status)
        return -1;
	//创建surface,有些系统可能报错,dinfo.w和dinfo.h也可以写成固定值
    sp<SurfaceControl> surfaceControl = client->createSurface(String8("showYUV"),
            dinfo.w, dinfo.h, PIXEL_FORMAT_RGBA_8888, 0);

/*************************get yuv data from file;****************************************/
	printf("[%s][%d]\n",__FILE__,__LINE__);
	int width,height;
	width = 320;
	height = 240;
	int size = width * height * 3/2;
	unsigned char *data = new unsigned char[size];
	char *path = "/mnt/sdcard/yuv_320_240.yuv";
	getYV12Data(path,data,size);//get yuv data from file;
/*********************配置surface*******************************************************************/
    SurfaceComposerClient::openGlobalTransaction();
    surfaceControl->setLayer(100000);//设定Z坐标
	surfaceControl->setPosition(100, 100);//以左上角为(0,0)设定显示位置
	surfaceControl->setSize(width, height);//设定视频显示大小
    SurfaceComposerClient::closeGlobalTransaction();
	sp<Surface> surface = surfaceControl->getSurface();
	printf("[%s][%d]\n",__FILE__,__LINE__);

/****************************************************************************************/
	sp<MetaData> meta = new MetaData;
	meta->setInt32(kKeyWidth, width);
	meta->setInt32(kKeyHeight, height);
	/*指定yuv格式,支持以下yuv格式
	 * OMX_COLOR_FormatYUV420Planar:
     * OMX_TI_COLOR_FormatYUV420PackedSemiPlanar:
     * HAL_PIXEL_FORMAT_YV12:
	 * 其他的貌似会转换成OMX_COLOR_Format16bitRGB565
	 */
	meta->setInt32(kKeyColorFormat, HAL_PIXEL_FORMAT_YV12);
	//setRect不要也可以,我也不知道设置了有什么用,原理是什么,但是设置,参数一定要正确
	meta->setRect(
                    kKeyCropRect,
                    0,//left
                    0,//top
                    width -1,//right
                    height -1);//bottom
	printf("[%s][%d]\n",__FILE__,__LINE__);
	SoftwareRenderer* sr = new SoftwareRenderer(surface,meta);//初始化
	printf("[%s][%d]\n",__FILE__,__LINE__);
	sr->render(data,size,NULL);//关键在这里,显示到屏幕上
	delete[] data;

	printf("[%s][%d]\n",__FILE__,__LINE__);

	IPCThreadState::self()->joinThreadPool();//可以保证画面一直显示,否则瞬间消失
    IPCThreadState::self()->stopProcess();
	return 0;
}
LOCAL_PATH:= $(call my-dir)
include $(CLEAR_VARS)

LOCAL_SRC_FILES:= 	main.cpp

LOCAL_STATIC_LIBRARIES := 	libstagefright_color_conversion

LOCAL_SHARED_LIBRARIES := 	libcutils 	libutils 	libbinder     libui     libgui 	libstagefright	libstagefright_foundation

LOCAL_C_INCLUDES := 	frameworks/native/include/media/openmax     frameworks/av/media/libstagefright

LOCAL_MODULE:= showYUV

LOCAL_MODULE_TAGS := tests

include $(BUILD_EXECUTABLE)

Android用surface直接显示yuv数据,布布扣,bubuko.com

时间: 2024-08-10 21:26:55

Android用surface直接显示yuv数据的相关文章

Android用surface直接显示yuv数据(二)

上一篇文章主要是参照AwesomePlayer直接用SoftwareRenderer类来显示yuv,为了能用到这个类,不惜依赖了libstagefright.libstagefright_color_conversion等动态静态库,从而造成程序具有很高的耦合度,也不便于我们理解yuv数据直接显示的深层次原因. 于是我开始研究SoftwareRenderer的具体实现,我们来提取SoftwareRenderer的核心代码,自己来实现yuv的显示. SoftwareRenderer就只有三个方法,

Android用surface直接显示yuv数据(三)

本文用Java创建UI并联合JNI层操作surface来直接显示yuv数据(yv12),开发环境为Android 4.4,全志A23平台. package com.example.myyuvviewer; import java.io.File; import java.io.FileInputStream; import android.app.Activity; import android.os.Bundle; import android.os.Environment; import a

Android用OpenGL ES2.0显示YUV数据,在手机上需要两种坐标系的解决方案

如题 ,不知道大家看懂了这个题目没有,给个链接:http://blog.csdn.net/wangchenggggdn/article/details/8896453(下称链接①), 里面评论有很多人提到了这个问题,我也是其中一员,但是问遍了所有人,自己也发帖(http://bbs.csdn.net/topics/390769358) 寻求解决方案,却终究没能得到一个可用的方案. 从2014年4月中旬遇到这个问题,纠结了两个多星期,终于在看了好多好多资料之后,于4月的最后一个周一,暂时解决了这么

Android上使用OpenGLES2.0显示YUV数据

在Android上用OpenGLES来显示YUV图像,之所以这样做,是因为: 1.Android本身也不能直接显示YUV图像,YUV转成RGB还是必要的: 2.YUV手动转RGB会占用大量的CPU资源,如果以这样的形式播放视频,手机会很热,所以我们尽量让GPU来做这件事: 3.OpenGLES是Android集成到自身框架里的第三方库,它有很多的可取之处. 博主的C/C++不是很好,所以整个过程是在Java层实现的,大家见笑,我主要参考(但不限于)以下文章,十分感谢这些朋友的分享: 1. htt

.Net程序员玩转Android开发---(12)ListView显示数据

Android中显示数据有多种控件,这节我们来认识下ListView,ListView是Android中最常用的数据显示控件,可以显示简单数据源,也可以显示复杂数据源,我们在Android系统中常看到的列表项,基本都是ListView的功劳.ListView中显示数据,肯定要绑定数据源.数据源的绑定是通过Adapter来完成的,Android中有两种常用的适配器,ArrayAdapter(数组适配器)  SimpleAdapter(简单适配器),适配器的作用就是把复杂的数据源显示到istview

【随笔】安卓平台YUV数据(NV12/I420)渲染

[场景] 为安卓应用增加解码h264和显示YUV的功能.解码用的是AMediacodec,此处不展开. 渲染用的是GLES 2.0,网上很多方案,包括webRTC的渲染都是针对I420(YUV420 三平面数据),比较少针对NV12的(可能我搜索能力比较辣鸡), 花了两天时间才找到正确的办法,特此记录. [方案描述] Opengl ES渲染 NV12的过程: 创建两个surface,分别代表Y平面和UV平面: 在shader中实现NV12转RGB,经过GPU渲染,最终呈现到安卓GLSurface

android获取某应用的帧数据

android获取某应用的帧数据: 说明: (打开手机 开发者选项-GPU显示配置文件(显示于 adb shell dumpsys gfxinfo)勾上,只有4.1以上支持) 在android4.1中,谷歌提供了一个工具来,叫做" GPU呈现模式分析(Profile GPU rendering)", 在开启这个功能后,系统就会记录保留每个界面最后128帧图像绘制的相关时间信息 开始操作: 命令行 adb shell dumpsys gfxinfo com.taobao.mobile.d

多媒体基础知识之YUV数据

1.什么是YUV格式 YUV,是一种颜色编码方法.Y表示明亮度(Luminance.Luma),也就是灰度值.U和V则是色度.浓度(Chrominance.Chroma),作用是描述影像色彩及饱和度,用于指定像素的颜色.与我们熟知的RGB类似,YUV也是一种颜色编码方法,主要用于电视系统以及模拟视频领域,它将亮度信息(Y)与色彩信息(UV)分离,没有UV信息一样可以显示完整的图像,只不过是黑白的,这样的设计很好地解决了彩色电视机与黑白电视的兼容问题.并且,YUV不像RGB那样要求三个独立的视频信

Android系统Surface机制的SurfaceFlinger服务对帧缓冲区(Frame Buffer)的管理分析

文章转载至CSDN社区罗升阳的安卓之旅,原文地址:http://blog.csdn.net/luoshengyang/article/details/8046659 在前文中,我们分析了SurfaceFlinger服务的启动过程.SurfaceFlinger服务在启动的过程中,会对系统的硬件帧缓冲区进行初始化.由于系统的硬件帧缓冲区一般只有一个,并且不是谁都可以随便访问的,因此,它就需要由一个服务来统一管理.在Android系统中,这个服务便是SurfaceFlinger.在本文中,我们就详细分