处理YUVNV21数据到RGB数据

 1 #define YG 18997 /* round(1.164 * 64 * 256 * 256 / 257) */
 2 #define YGB -1160 /* 1.164 * 64 * -16 + 64 / 2 */
 3
 4 #define UB -128 /* max(-128, round(-2.018 * 64)) */
 5 #define UG 25 /* round(0.391 * 64) */
 6 #define VG 52 /* round(0.813 * 64) */
 7 #define VR -102 /* round(-1.596 * 64) */
 8
 9 #define BB (UB * 128            + YGB)
10 #define BG (UG * 128 + VG * 128 + YGB)
11 #define BR            (VR * 128 + YGB)
12
13 typedef unsigned char sd_uint8;
14 typedef unsigned long sd_uint32;
15 typedef signed long sd_int32;
16
17 sd_int32 clamp0(sd_int32 v) { return ((-(v) >> 31) & (v)); }
18 sd_int32 clamp255(sd_int32 v) { return (((255 - (v)) >> 31) | (v)) & 255; }
19 sd_uint32 Clamp(sd_int32 val) { int v = clamp0(val); return (sd_uint32)(clamp255(v)); }
20
21 void YuvPixel(
22     sd_uint8 y,
23     sd_uint8 u,
24     sd_uint8 v,
25     sd_uint8* b,
26     sd_uint8* g,
27     sd_uint8* r
28     ){
29     sd_uint32 y1 = (sd_uint32)(y * 0x0101 * YG) >> 16;
30     *r = Clamp((sd_int32)(-(u * UB) + y1 + BB) >> 6);
31     *g = Clamp((sd_int32)(-(v * VG + u * UG) + y1 + BG) >> 6);
32     *b = Clamp((sd_int32)(-(v * VR) + y1 + BR) >> 6);
33 }
34 void NV21ToARGBRow_C(
35     const sd_uint8* src_y,
36     const sd_uint8* src_vu,
37     sd_uint8* rgb_buf,
38     int width
39     ){
40     int x;
41     for ( x = 0; x < width - 1; x += 2 ) {
42         YuvPixel(src_y[0], src_vu[1], src_vu[0], rgb_buf + 0, rgb_buf + 1, rgb_buf + 2);
43         rgb_buf[3] = 255;
44         YuvPixel(src_y[1], src_vu[1], src_vu[0], rgb_buf + 4, rgb_buf + 5, rgb_buf + 6);
45         rgb_buf[7] = 255;
46         src_y += 2;
47         src_vu += 2;
48         rgb_buf += 8;
49     }
50     if ( width & 1 ) {
51         YuvPixel(src_y[0], src_vu[1], src_vu[0], rgb_buf + 0, rgb_buf + 1, rgb_buf + 2);
52         rgb_buf[3] = 255;
53     }
54 }
55 int NV21ToARGB(
56     const sd_uint8* src_y,
57     int src_stride_y,
58     const sd_uint8* src_uv,
59     int src_stride_uv,
60     sd_uint8* dst_argb,
61     int dst_stride_argb,
62     int width,
63     int height
64     ){
65     int y;
66     if ( !src_y || !src_uv || !dst_argb || width <= 0 || height == 0 ) { return -1; }
67     for ( y = 0; y < height; ++y ) {
68         NV21ToARGBRow_C(src_y, src_uv, dst_argb, width);
69         dst_argb += dst_stride_argb;
70         src_y += src_stride_y;
71         if ( y & 1 ) {
72             src_uv += src_stride_uv;
73         }
74     }
75     return 0;
76 }
77 int ConvertToARGB(
78     const sd_uint8* sample, // 原图的地址
79     sd_uint8* crop_argb, // RGBA的地址
80     int argb_stride, //  should be width * 4 or width must be 1 right
81     int crop_x, // 裁剪的x坐标
82     int crop_y, // 裁剪的y坐标
83     int src_width, // 原图的宽度
84     int src_height, // 原图的高度
85     int crop_width, // 裁剪的宽度
86     int crop_height // 裁剪的高度
87     ){
88     const sd_uint8* src;
89     const sd_uint8* src_uv;
90     int aligned_src_width = (src_width + 1) & ~1;
91     src = sample + (src_width * crop_y + crop_x);
92     src_uv = sample + aligned_src_width * (src_height + crop_y / 2) + crop_x;
93     // Call NV12 but with u and v parameters swapped.
94     return NV21ToARGB(src, src_width, src_uv, aligned_src_width, crop_argb, argb_stride, crop_width, crop_height);
95 }
时间: 2024-08-29 22:29:37

处理YUVNV21数据到RGB数据的相关文章

YUY数据转换为RGB数据,并进行灰度化处理显示

BYTE clip255(long Value){ BYTE retValue;  if (Value > 255)  retValue = 255; else if (Value < 0)  retValue = 0; else  retValue = (BYTE)Value; return retValue;}//win7采到的数据默认YUY格式,一个像素用2位表示,这里将YUY转换为RGB格式(3个字节),便于显示,不转换会出现黑框框void YUY2_RGB2_ljh(unsigned

CUDA 实现JPEG图像解码为RGB数据

了解JPEG数据格式的人应该easy想到.其对图像以8*8像素块大小进行切割压缩的方法非常好用并行处理的思想来实现.而其实英伟达的CUDA自v5.5開始也提供了JPEG编解码的演示样例.该演示样例存储在CUDA的SDK中,即CUDA的默认安装路径"C:\ProgramData\NVDIA Corporation\CUDA Samples\v7.0\7_CUDALibraries\jpegNPP"(v后面的数字依据版本号的不同会变更)中. 该演示样例将图片数据进行了解码和再编码,因为解码

项目中利用AnyChat SDK实现将RGB数据作为视频源的实时推送功能

一.前期调研工作: 查看官网简介www.anychat.cn 可以知道AnyChat支持外部音视频功能,具体描述如下: AnyChat Platform Core SDK V4.2版本增加了外部音视频数据输入功能,该功能主要满足一些特殊应用场合下的需求,通常普通用户不会使用到,使用该功能,可以由上层应用程序输入视频数据.音频数据到AnyChat,然后AnyChat再对这些数据进行编码.传输,即使用上层应用的数据做为数据源,而不使用AnyChat从本地声卡.摄像头采集的音视频数据. 通过外部音视频

FFmpeg 将YUV数据转RGB

void init() //分配两个Frame,两段buff,一个转换上下文 { //为每帧图像分配内存 m_pFrameYUV = av_frame_alloc(); m_pFrameRGB = av_frame_alloc(); int numBytes = avpicture_get_size(AV_PIX_FMT_RGB32, nwidth,nheight); m_rgbBuffer = (uint8_t *) av_malloc(numBytes * sizeof(uint8_t));

ajax请求返回Json字符串运用highcharts数据图表展现数据

[1].[图片] Json字符串和highcharts数据图表展现.jpg 跳至 [1] [2] [2].[代码] Json字符串和highcharts数据图表展现 跳至[1] [2] 001 /* 002 * Filename: OQtyOrPriceReport.js 003 * Description:客户订单数量和价格报表分析 004 * Created: 2013.11.14 005 * Author : liangjw 006 * Company:Copyright (C) 2013

SpringMVC框架下数据的增删改查,数据类型转换,数据格式化,数据校验,错误输入的消息回显

在eclipse中javaEE环境下: 这儿并没有连接数据库,而是将数据存放在map集合中: 将各种架包导入lib下... web.xml文件配置为 <?xml version="1.0" encoding="UTF-8"?> <web-app xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xmlns="http://java.sun.com/xml/ns/

Java基础知识强化之网络编程笔记06:TCP之TCP协议发送数据 和 接收数据

1. TCP协议发送数据 和 接收数据 TCP协议接收数据:• 创建接收端的Socket对象• 监听客户端连接.返回一个对应的Socket对象• 获取输入流,读取数据显示在控制台• 释放资源 TCP协议发送数据: • 创建发送端的Socket对象• 这一步如果成功,就说明连接已经建立成功了.• 获取输出流,写数据• 释放资源 2. 代码实现: (1)发送端: 1 package cn.itcast_06; 2 3 import java.io.IOException; 4 import java

nodejs 通过 get获取数据修改redis数据

如下代码是没有报错的正确代码 我通过https获取到数据 想用redis set一个键值存储 现在我掉入了回调陷阱res.on 里面接收到的数据是data 里面如果放入 client.on('connect',functi ...这个修改函数就会报错. 'use strict'; var redis = require('redis'), RDS_PORT = 6379, //端口号 RDS_HOST = '127.0.0.1', //服务器IP //RDS_PWD = 'porschev',

向后端请求数据 以及像后端发送数据要求(删除数据和添加数据)

删除数据和添加数据只能后端操作 删除数据和添加数据都要用到的html(一)部分 <!DOCTYPE html><html lang="en"><head> <meta charset="UTF-8"> <title>Title</title> <link rel="stylesheet" href="../css/bootstrap.min.css"