关于RGB转换YUV的探讨与实现

最近在Android手机上使用相机识别条形码工作取得了比较理想的进展,自动识别功能基本完成,然而在手动识别指定条形码图片时遇到困难,由于Zxing开源Jar包识别图片的颜色编码式为YUV,而普通的图片使用RGB颜色分量来保存颜色信息。非压缩的24位的BMP图像就采用RGB空间来保存图像。一个像素24位,每8位保存一种颜色强度(0-255),例如红色保存为 0xFF0000。经过两天的探索与查阅相关YUV与RGB资料后,尝试编写了RGB转换为YUV代码,几番调试后终于转换成功。下面就作一些简单介绍,然后贴出代码。

YUV是被欧洲电视系统所采用的一种颜色编码方法。其中“Y”表示明亮度(Luminance或Luma),也就是灰阶值;而“U”和“V”表示的则是色度(Chrominance或Chroma)。在彩色的广播电视中,并不是直接传送RGB三基色信号,而是把三基色经过转换成可以代表三基色信号的新的三个基本参量YUV来传输的。YUV格式通常有两大类,打包格式和平面格式。打包格式有以下几种:YUV2格式,YUYV格式, YVYU格式, UYVY格式。平面格式有IF09格式,IYUV格式,YVU9格式。Android摄像头预览的视频流色彩编码方案默认为YCbCr4:2:0,其中4:2:0表示2:1的水平下采样,2:1的垂直下采样,体现为以下分布。

详见:http://blog.csdn.net/SearchSun/article/details/2443867

我以我理解的方式来表示来RGB与YCbCr420的对应关系,请看下图。

如上图所示为一张(宽X高)为(6 *4),即len=6×4的RGB编码位图,图中的每一个小球代表一个像素点。在便携式视频设备(MPEG-4)中,YCbCr4:2:0是最常用的格式,表示每4个像素有4个亮度分量,2个色度分量(YYYYCbCr)。从图上,可以直观地看出4个像素点共享U和V分量(颜色标志相同的小球),也即2:1的水平下采样,2:1的垂直下采样。接下来,申请一个字节数组来保存YUV数据,该YUV的数组长度为len×3/2,Y分量占len长度字节,U和V分别占len/4长度字节。

代码:

len = width * height;

byte[] yuv = new byte[len * 3 / 2];

上图中的坐标值表示该分量在在YUV数组中位置index。现在给出index计算方式:

Y_index = (i * width + j);

U_index= (len + (i >> 1) * width + (j & ~1) + 0)

V_index=(len + (i >> 1) * width + (j & ~1) + 1)

Y、U、V分量与R、G、B分量的对应关系为:

y = ((66 * r + 129 * g + 25 * b + 128) >> 8) + 16;

u = ((-38 * r - 74 * g + 112 * b + 128) >> 8) + 128;

v = ((112 * r - 94 * g - 18 * b + 128) >> 8) + 128;

r = 1.166f * (y - 16) + 1.596f * (v - 128);

g = 1.164f * (y - 16) - 0.813f * (v - 128)- 0.391f * (u - 128);

b = 1.164f * (y - 16) + 2.018f * (u - 128);

因此代码很容易就可写出:假定已获取到像素值,如果是一张图片,你可以通过代码先获得该图片的像素值整型数组,然后传入该数组,以及该图片的宽度和高度调用以下方法即可获取YCbCr420格式数组。

    public byte[] rgb2YCbCr420(int[] pixels, int width, int height) {

int len = width * height;

//yuv格式数组大小,y亮度占len长度,u,v各占len/4长度。

byte[] yuv = new byte[len * 3 / 2];

int y, u, v;

for (int i = 0; i < height; i++) {

for (int j = 0; j < width; j++) {

//屏蔽ARGB的透明度值

int rgb = pixels[i * width + j] & 0x00FFFFFF;

//像素的颜色顺序为bgr,移位运算。

int r = rgb & 0xFF;

int g = (rgb >> 8) & 0xFF;

int b = (rgb >> 16) & 0xFF;

//套用公式

y = ((66 * r + 129 * g + 25 * b + 128) >> 8) + 16;

u = ((-38 * r - 74 * g + 112 * b + 128) >> 8) + 128;

v = ((112 * r - 94 * g - 18 * b + 128) >> 8) + 128;

//调整

y = y < 16 ? 16 : (y > 255 ? 255 : y);

u = u < 0 ? 0 : (u > 255 ? 255 : u);

v = v < 0 ? 0 : (v > 255 ? 255 : v);

//赋值

yuv[i * width + j] = (byte) y;

yuv[len + (i >> 1) * width + (j & ~1) + 0] = (byte) u;

yuv[len + +(i >> 1) * width + (j & ~1) + 1] = (byte) v;

}

}

return yuv;

}

再附上YCbCr420转换成RGB的代码,可以通过该代码还原RGB位图。

public void yCbCr2Rgb (byte[] yuv, int width, int height) {

int frameSize = width * height;

int[] rgba = new int[frameSize];

for (int i = 0; i < height; i++){

for (int j = 0; j < width; j++) {

int y = (0xff & ((int) yuv[i * width + j]));

int u = (0xff & ((int) yuv [frameSize + (i >> 1) * width

+ (j & ~1) + 0]));

int v = (0xff & ((int) yuv [frameSize + (i >> 1) * width

+ (j & ~1) + 1]));

y = y < 16 ? 16 : y;

int r = Math.round(1.166f * (y - 16) + 1.596f * (v - 128));

int g = Math.round(1.164f * (y - 16) - 0.813f * (v - 128)

- 0.391f * (u - 128));

int b = Math.round(1.164f * (y - 16) + 2.018f * (u - 128));

r = r < 0 ? 0 : (r > 255 ? 255 : r);

g = g < 0 ? 0 : (g > 255 ? 255 : g);

b = b < 0 ? 0 : (b > 255 ? 255 : b);

rgba[i * width + j] = 0xff000000 + (b << 16) + (g << 8) + r;

}

}

Bitmap bmp = Bitmap.createBitmap(width, height,

Bitmap.Config.ARGB_8888);

bmp.setPixels(rgba, 0, width, 0, 0, width, height);

String bmpName = "test.jpg";

String path = Environment.getExternalStorageDirectory()

.getAbsolutePath() + "/scan_test";

// 文件目录

File root = new File(path);

if (!root.isDirectory() || !root.exists()) {

root.mkdirs();

}

File myCaptureFile = new File(path, bmpName);

try {

myCaptureFile.createNewFile();

catch (IOException e1) {

// TODO Auto-generated catch block

e1.printStackTrace();

}

try {

BufferedOutputStream bos = new BufferedOutputStream(

new FileOutputStream(myCaptureFile));

// 采用压缩转档方法

bmp.compress(Bitmap.CompressFormat.JPEG, 100, bos);

bos.flush();

bos.close();

catch (Exception e) {

myCaptureFile.delete();

}

}

}

时间: 2025-01-02 05:35:51

关于RGB转换YUV的探讨与实现的相关文章

matlab公共函数之RGB与YUV转换

matlab中有自带的rgb转ycbcr函数,但是根据观测,其Y的值为[16 235],不符合我们的要求,所以,提供另一种规范下的转换脚本函数,其Y的值满足[0 255] RGB转YUV % function yuv = myrgb2yuv(image) % input params. % image: input color image with 3 channels, which value must be [0 255] % output % yuv: 3 channels(YUV444,

RGB、YUV和YCbCr(转)

http://blog.sina.com.cn/s/blog_a85e142101010h8n.html 之前对RGB.YUV和YCbCr一直没有清晰的理解和认识,今天打算做一个小结,结合网上的文章谈谈自己的看法,也希望有机会看到这篇文章的人能指点一二,相互交流,共同进步. 首先要说明,上述的RGB.YUV和YCbCr都是人为规定的彩色模型或颜色空间(有时也叫彩色系统或彩色空间).它的用途是在某些标准下用通常可接受的方式对彩色加以说明.本质上,彩色模型是坐标系统和子空间的阐述. [1]RGB R

RGB和YUV之比较 (转)

http://blog.csdn.net/qfnu08zzr/article/details/6763159 RGB 原理 RGB 是从颜色发光的原理来设计定的,通俗点说它的颜色混合方式就好像有红.绿.蓝三盏灯,当它们的光相互叠合的时候,色彩相混,而亮度却等于两者亮度之总和(两盏灯的亮度嘛!),越混合亮度越高,即加法混合. 有色光可被无色光冲淡并变亮.如蓝色光与白光相遇,结果是产生更加明亮的浅蓝色光.知道它的混合原理后,在软件中设定颜色就容易理解了. 红.绿.蓝三盏灯的叠加情况,中心三色最亮的叠

算法优化:rgb向yuv的转化最优算法

朋友曾经给我推荐了一个有关代码优化的pdf文档<让你的软件飞起来>,看完之后,感受颇深.为了推广其,同时也为了自己加深印象,故将其总结为word文档.下面就是其的详细内容总结,希望能于己于人都有所帮助. 速度取决于算法 同样的事情,方法不一样,效果也不一样.比如,汽车引擎,可以让你的速度超越马车,却无法超越音速:涡轮引擎,可以轻松 超越音障,却无法飞出地球:如果有火箭发动机,就可以到达火星. 代码的运算速度取决于以下几个方面 1.  算法本身的复杂度,比如MPEG比JPEG复杂,JPEG比BM

多媒体编程基础之RGB和YUV

一.概念 1.什么是RGB? 对一种颜色进行编码的方法统称为“颜色空间”或“色域”.用最简单的话说,世界上任何一种颜色的“颜色空间”都可定义成一个固定的数字或变量.RGB(红.绿.蓝)只是众多颜色空间的一种.采用这种编码方法,每种颜色都可用三个变量来表示-红色绿色以及蓝色的强度.记录及显示彩色图像时,RGB是最常见的一种方案. 2.什么是YUV? YUV是被欧洲电视系统所采用的一种颜色编码方法(属于PAL),是PAL和SECAM模拟彩色电视制式采用的颜色空间. 在现代彩色电视系统中,通常采用三管

认识RGB和YUV

多年来,对于大部分人来说,对图形信号的认识不外有三种:射频信号,复合视频信号,S视频信号.射频信号是由复合视频信号调到高频上,普通电视机的天线输入信号用于射频信号,复合视频信号的输入出是用RGA端子.既是我们最常见的音频接口 ,S视频信号的入出是用四苡端子.俗称S端子.在清晰度上,S端子最高,复合视频次之,射频视合最差. 随着DVD播放机和数字机顶盒的出现,为了提供更清晰度的图形,两种新的视频形态也展现在大众眼前,这就是RGB和YUV信号,也叫彩色分量信号,说其新,其实对专业工作和视频玩家来说.

视频色彩空间RGB、YUV、YCbCr

RGB.YUV和YCbCr都是人为规定的彩色模型或颜色空间(有时也叫彩色系统或彩色空间).它的用途是在某些标准下用通常可接受的方式对彩色加以描述.本质上,彩色模型是坐标系统和子空间的阐述. RGB RGB(红绿蓝)是依据人眼识别的颜色定义出的空间,可表示大部分颜色.但在科学研究一般不采用RGB颜色空间,因为它的细节难以进行数字化的调整.它将色调,亮度,饱和度三个量放在一起表示,很难分开.它是最通用的面向硬件的彩色模型.该模型用于彩色监视器和一大类彩色视频摄像. YUY YUV模型是根据一个亮度(

矢量图、位图、RGB、YUV、JPEG、PNG的理解

开发的项目中缺少不了图形图像的支持,对图的使用场景也是极多的,但对其内部原理却一直处理模糊状态,抽时间做个整理吧,理一下相关的概念. 一.矢量图与位图 矢量图与位图均为图像的表述方式,矢量图可以理解为在我们口中描述图形的方法,比如:图A:一个半径10cm的绿色实心圆,重点包括:圆.实心.绿色.半径为10cm.圆心位置,这些信息只需要很少的字节即可记录图A,因而,矢量图所占空间较小:还有一个特点就是放大以后不会变形,因为不管放多大,其特征都是固定的.矢量图缺点也很明显,难以表述复杂场景.基于矢量图

图像处理之基础---用Shader实现的YUV到RGB转换:使用3重纹理实现 .

上一篇中,我是用一个RGB格式的纹理来存储每一帧的画面,其中纹理为m_FrameWidth * m_FrameHeight大小,这样,在内存中,就必须要先对YUV的数据进行排序,然后才能当做RGB的数据格式传给纹理内存.我们发现对一个很大帧的图片进行数据重新排序会花费很多时间,为了减少这个时间,当然可以用汇编语言来进行这个排序的操作.然而,有一种更好的方法. 我们发现在上一次所用到的YUV420数据格式是一种平面格式,他的数据排列十分有规律,这里,考虑用3重纹理来实现他的转换. 先定义3个纹理,