Linux LCD 显示图片【转】

转自:https://blog.csdn.net/niepangu/article/details/50528190

BMP和JPEG图形显示程序
1)  在LCD上显示BMP或JPEG图片的主流程图
首先,在程序开始前。要在nfs/dev目录下创建LCD的设备结点,设备名fb0,设备类型为字符设备,主设备号为29,次设备号为0。命令如下:
mknod fb0 c 29 0
在LCD上显示图象的主流程图如图1所示。程序一开始要调用open函数打开设备,然后调用ioctl获取设备相关信息,接下来就是读取图形文件数据,把图象的RGB值映射到显存中,这部分是图象显示的核心。对于JPEG格式的图片,要先经过JPEG解码才能得到RGB数据,本项目中直接才用现成的JPEG库进行解码。对于bmp格式的图片,则可以直接从文件里面提取其RGB数据。要从一个bmp文件里面把图片数据阵列提取出来,首先必须知道bmp文件的格式。下面来详细介绍bmp文件的格式。
 
                                  图1

2)  bmp位图格式分析
位图文件可看成由四个部分组成:位图文件头、位图信息头、彩色表和定义位图的字节阵列。如图2所示。
 
                                  图2
文件头中各个段的地址及其内容如图3。
  
                               图3
位图文件头数据结构包含BMP图象文件的类型,显示内容等信息。它的数据结构如下定义:
Typedef struct
{  
int  bfType;//表明位图文件的类型,必须为BM
long bfSize;//表明位图文件的大小,以字节为单位
int  bfReserved1;//属于保留字,必须为本0
int  bfReserved2;//也是保留字,必须为本0
long bfOffBits;//位图阵列的起始位置,以字节为单位
}  BITMAPFILEHEADER;

2.1)信息头中各个段的地址及其内容如图4所示。
 
                                    图4
位图信息头的数据结构包含了有关BMP图象的宽,高,压缩方法等信息,它的C语言数据结构如下:
Typedef struct {
long  biSize; //指出本数据结构所需要的字节数
long  biWidth;//以象素为单位,给出BMP图象的宽度
long  biHeight;//以象素为单位,给出BMP图象的高度
int    biPlanes;//输出设备的位平面数,必须置为1
int    biBitCount;//给出每个象素的位数
long  biCompress;//给出位图的压缩类型
long  biSizeImage;//给出图象字节数的多少
long  biXPelsPerMeter;//图像的水平分辨率
long  biYPelsPerMeter;//图象的垂直分辨率
long  biClrUsed;//调色板中图象实际使用的颜色素数
long  biClrImportant;//给出重要颜色的索引值
} BITMAPINFOHEADER;

2.2)对于象素小于或等于16位的图片,都有一个颜色表用来给图象数据阵列提供颜色索引,其中的每块数据都以B、G、R的顺序排列,还有一个是reserved保留位。而在图形数据区域存放的是各个象素点的索引值。它的C语言结构如图5所示。
 
          图5  颜色表数据结构
2.3)对于24位和32位的图片,没有彩色表,他在图象数据区里直接存放图片的RGB数据,其中的每个象素点的数据都以B、G、R的顺序排列。每个象素点的数据结构如图6所示。
  
   图6  图象数据阵列的数据结构
2.4)由于图象数据阵列中的数据是从图片的最后一行开始往上存放的,因此在显示图象时,是从图象的左下角开始逐行扫描图象,即从左到右,从下到上。
2.5)对S3C2410或PXA255开发板上的LCD来说,他们每个象素点所占的位数为16位,这16位按B:G:R=5:6:5的方式分,其中B在最高位,R在最低位。而从bmp图象得到的R、G、B数据则每个数据占8位,合起来一共24位,因此需要对该R、G、B数据进行移位组合成一个16位的数据。移位方法如下:
b >>= 3; g >>= 2; r >>= 3;
RGBValue = ( r<<11 | g << 5 | b);
基于以上分析,提取各种类型的bmp图象的流程如图7所示
  

图7

3)  实现显示任意大小的图片
开发板上的LCD屏的大小是固定的,S3C2410上的LCD为:240*320,PXA255上的为:640*480。比屏幕小的图片在屏上显示当然没问题,但是如果图片比屏幕大呢?这就要求我们通过某种算法对图片进行缩放。
缩放的基本思想是将图片分成若干个方块,对每个方块中的R、G、B数据进行取平均,得到一个新的R、G、B值,这个值就作为该方块在LCD屏幕上的映射。

缩放的算法描述如下:
(1)、计算图片大小与LCD屏大小的比例,以及方块的大小。为了适应各种屏幕大小,这里并不直接给lcd_width和lcd_height赋值为240和320。而是调用标准的接口来获取有关屏幕的参数。具体如下:
    // Get variable screen information
    if (ioctl(fbfd, FBIOGET_VSCREENINFO, &vinfo)) {
        printf("Error reading variable information. ");
        exit(3);
    }
unsigned int lcd_width=vinfo.xres;
 unsigned int lcd_height=vinfo.yres;

计算比例:
widthScale=bmpi->width/lcd_width;
heightScale=bmpi->height/lcd_height;
本程序中方块的大小以如下的方式确定:
unsigned int paneWidth= 
 unsigned int paneHeight= ;
符号 代表向上取整。
(2)、从图片的左上角开始,以(i* widthScale,j* heightScale)位起始点,以宽paneWidth 高paneHeight为一个小方块,对该方块的R、G、B数值分别取平均,得到映射点的R、G、B值,把该点作为要在LCD上显示的第(i , j)点存储起来。
这部分的程序如下:
 //-------------取平均--------
 for( i=0;i<now_height;i++)
 {
  for(j=0;j<now_width;j++)
  {   
   color_sum_r=0;
   color_sum_g=0;
   color_sum_b=0;
   for(m=i*heightScale;m<i*heightScale+paneHeight;m++)
   {
    for(n=j*widthScale;n<j*widthScale+paneWidth;n++)
    {
     color_sum_r+=pointvalue[m][n].r;
     color_sum_g+=pointvalue[m][n].g;
     color_sum_b+=pointvalue[m][n].b;
    }
   }
   RGBvalue_256->r=div_round(color_sum_r,paneHeight*paneWidth);
   RGBvalue_256->g=div_round(color_sum_g,paneHeight*paneWidth);
   RGBvalue_256->b=div_round(color_sum_b,paneHeight*paneWidth);
  }
 }
4)  图片数据提取及显示的总流程
通过以上的分析,整个图片数据提取及显示的总流程如图8 所示。 
 
                                                                               图 8
图像显示应用程序:
#include <errno.h>
#include <sys/types.h>
#include <sys/stat.h>
#include <fcntl.h>
#include <sys/ioctl.h>
#include <unistd.h>
#include <stdint.h>
#include <stdio.h>
#include <stdlib.h>
#include <asm/types.h>
#include <linux/videodev2.h>
#include <sys/mman.h>
#include <string.h>
#include <malloc.h>
#include <linux/fb.h>
#include <jpeglib.h>
#include <jerror.h>

struct fb_dev
{
        //for frame buffer
        int fb;
        void *fb_mem;   //frame buffer mmap
        int fb_width, fb_height, fb_line_len, fb_size;
        int fb_bpp;
} fbdev;

//得到framebuffer的长、宽和位宽,成功则返回0,失败返回-1 
int fb_stat(int fd)
{
        struct fb_fix_screeninfo fb_finfo;
        struct fb_var_screeninfo fb_vinfo;

if (ioctl(fd, FBIOGET_FSCREENINFO, &fb_finfo))
        {
                perror(__func__);
                return (-1);
        }

if (ioctl(fd, FBIOGET_VSCREENINFO, &fb_vinfo))
        {
                perror(__func__);
                return (-1);
        }

fbdev.fb_width = fb_vinfo.xres;
        fbdev.fb_height = fb_vinfo.yres;
        fbdev.fb_bpp = fb_vinfo.bits_per_pixel;
        fbdev.fb_line_len = fb_finfo.line_length;
        fbdev.fb_size = fb_finfo.smem_len;

return (0);
}

//转换RGB888为RGB565(因为当前LCD是采用的RGB565显示的)
unsigned short RGB888toRGB565(unsigned char red, unsigned char green, unsigned char blue)
{
        unsigned short B = (blue >> 3) & 0x001F;
        unsigned short G = ((green >> 2) << 5) & 0x07E0;
        unsigned short R = ((red >> 3) << 11) & 0xF800;

return (unsigned short) (R | G | B);
}
//释放framebuffer的映射
int fb_munmap(void *start, size_t length)
{
        return (munmap(start, length));
}

//显示一个像素点的图像到framebuffer上
int fb_pixel(void *fbmem, int width, int height, int x, int y, unsigned short color)
{
        if ((x > width) || (y > height))
                return (-1);

unsigned short *dst = ((unsigned short *) fbmem + y * width + x);

*dst = color;
        return 0;
}

int main(int argc, char **argv)
{
     int fb;
     FILE *infile;
     struct jpeg_decompress_struct cinfo;
     int x,y;
     unsigned char *buffer;
     char s[15];
     struct jpeg_error_mgr jerr;

if ((fb = open("/dev/fb0", O_RDWR)) < 0)                        //打开显卡设备
      {
                perror(__func__);
                return (-1);
      }

//获取framebuffer的状态
        fb_stat(fb);                                                    //获取显卡驱动中的长、宽和显示位宽
        printf("frame buffer: %dx%d,  %dbpp, 0x%xbyte= %d\n",
                fbdev.fb_width, fbdev.fb_height, fbdev.fb_bpp, fbdev.fb_size, fbdev.fb_size);

//映射framebuffer的地址
        fbdev.fb_mem = mmap (NULL, fbdev.fb_size, PROT_READ|PROT_WRITE,MAP_SHARED,fb,0);

if ((infile = fopen("lcd.jpg", "rb")) == NULL)
        {
                fprintf(stderr, "open %s failed\n", s);
                exit(-1);
        }
        ioctl(fb, FBIOBLANK,0);                        //打开LCD背光

cinfo.err = jpeg_std_error(&jerr);
        jpeg_create_decompress(&cinfo);

//导入要解压的Jpeg文件infile
        jpeg_stdio_src(&cinfo, infile);

//读取jpeg文件的文件头
        jpeg_read_header(&cinfo, TRUE);

//开始解压Jpeg文件,解压后将分配给scanline缓冲区,
        jpeg_start_decompress(&cinfo);

buffer = (unsigned char *) malloc(cinfo.output_width
                                        * cinfo.output_components);
        y = 0;
        while (cinfo.output_scanline < cinfo.output_height)
        {
                jpeg_read_scanlines(&cinfo, &buffer, 1);
                if(fbdev.fb_bpp == 16)
                {
                       unsigned short color;
                       for (x = 0; x < cinfo.output_width; x++)
                       {
                                color = RGB888toRGB565(buffer[x * 3],
                                                            buffer[x * 3 + 1], buffer[x * 3 + 2]);
                                fb_pixel(fbdev.fb_mem, fbdev.fb_width, fbdev.fb_height, x, y, color);
                       }
                 }
                 else if(fbdev.fb_bpp == 24)
                 {
                       memcpy((unsigned char *)fbdev.fb_mem + y * fbdev.fb_width * 3, buffer,
                                                        cinfo.output_width * cinfo.output_components);
                 }
                y++;
        }
        
        //完成Jpeg解码,释放Jpeg文件
        jpeg_finish_decompress(&cinfo);
        jpeg_destroy_decompress(&cinfo);

//释放帧缓冲区
        free(buffer);

//关闭Jpeg输入文件
        fclose(infile);

fb_munmap(fbdev.fb_mem, fbdev.fb_size);                                 //释放framebuffer映射

close(fb);

}

文章是我转载的http://blog.chinaunix.net/uid-25120309-id-3794265.html

但是测试发现编译无法通过,

报错:

LCD.C:(.text+0x384): undefined reference to `jpeg_std_error(jpeg_error_mgr*)‘
LCD.C:(.text+0x3a0): undefined reference to `jpeg_CreateDecompress(jpeg_decompress_struct*, int, unsigned int)‘
LCD.C:(.text+0x3b0): undefined reference to `jpeg_stdio_src(jpeg_decompress_struct*, _IO_FILE*)‘
LCD.C:(.text+0x3c0): undefined reference to `jpeg_read_header(jpeg_decompress_struct*, int)‘
LCD.C:(.text+0x3cc): undefined reference to `jpeg_start_decompress(jpeg_decompress_struct*)‘
LCD.C:(.text+0x410): undefined reference to `jpeg_read_scanlines(jpeg_decompress_struct*, unsigned char**, unsigned int)‘
LCD.C:(.text+0x59c): undefined reference to `jpeg_finish_decompress(jpeg_decompress_struct*)‘
LCD.C:(.text+0x5a8): undefined reference to `jpeg_destroy_decompress(jpeg_decompress_struct*)‘
collect2: ld returned 1 exit status

经过在网上查找,确定是JPEG解码库问题,我首先在Ubuntu安装了jpeg库

libjpeg 库的安装

在源文件里将

#include <jpeglib.h>

改成

extern "C" {
#include <jpeglib.h>
}

这里是有问题的,注意gcc 会把LCD.C当成c++编译,而把LCD.c当成C语言编译,改成lcd.c后就没有上边红色部分错误

由于是有的是JPEG解码库,链接的时候需要加上-ljpeg 选项

使用命令 arm-linux-gcc -ljpeg LCD.C -o LCD #add -ljpeg option  编译源文件成功,

原文地址:https://www.cnblogs.com/sky-heaven/p/8667500.html

时间: 2024-10-13 17:02:12

Linux LCD 显示图片【转】的相关文章

七、在U-boot中让LCD显示图片

1. 编译U-boot 准备好U-boot压缩包urbetter-u-boot-1.1.6-v1.0.tgz,输入命令:tar -xvf urbetter-u-boot-1.1.6-v1.0.tgz 进入U-boot目录,按顺序执行以下命令: make clean make smdk6410_config make 会报出很多/usr/local/arm/arm-none-linux-gnueabi/bin/arm-none-linux-gnueabi-gcc: not found的错误,这是因

STM32学习之路-LCD(3)&lt;显示图片&gt;

祝大家端午和六一快乐!原本今天是想休息休息的,但是实在无奈没什么事干.所以就来学习学习LCD显示图片的函数 函数是照搬奋斗的例子,算是些笔记吧.不过奋斗的例子注释的不是很详细.今天去看了正点原子的论坛,唉..瞬间感觉正点原子做得真的很好 能把所有的资料都开源,并且论坛上大多问题都耐心的解答了.这实在是非常非常好的售后服务了!!自己也偷偷的去下了写资料来看看,(*^__^*) 嘻嘻-- 好,进入主题: 开发板:奋斗V5 LCD:3寸 400X240 直接上代码吧 void lcd_DrawPict

将图片转换为Framebuffer格式(终端显示图片)

要在ubuntu终端显示图片或者在板子的LCD显示图片,Framebuffer是一个简单易用的接口,直接写入像素信息即可. 但普通的图片带有头部信息或者编码格式不同,直接送入Framebuffer是显示不出来的,需要扣出像素信息,并按照Framebuffer的RGBA顺序调整好,才能显示.所以现在的问题就是,如何获取framebuffer的信息,以及如何调整图片. 第一个问题,如何获取framebuffer的信息 对于ubuntu,可以安装fbset 进行查看 sudo apt-get inst

Linux framebuffer显示bmp图片

framebuffer简介     帧缓冲(framebuffer)是Linux为显示设备提供的一个接口,把显存抽象后的一种设备,他允许上层应用程序在图形模式下直接对显示缓冲区进行读写操作.framebuffer是LCD对应的一中HAL(硬件抽象层),提供抽象的,统一的接口操作,用户不必关心硬件层是怎么实施的.这些都是由Framebuffer设备驱动来完成的.     帧缓冲设备对应的设备文件为/dev/fb*,如果系统有多个显示卡,Linux下还可支持多个帧缓冲设备,最多可达32个,分别为/d

Linux framebuffer显示bmp图片【转】

本文转载自:http://blog.csdn.net/luxiaoxun/article/details/7622988 framebuffer简介 帧缓冲(framebuffer)是Linux为显示设备提供的一个接口,把显存抽象后的一种设备,他允许上层应用程序在图形模式下直接对显示缓冲区进行读写操作.framebuffer是LCD对应的一中HAL(硬件抽象层),提供抽象的,统一的接口操作,用户不必关心硬件层是怎么实施的.这些都是由Framebuffer设备驱动来完成的.     帧缓冲设备对应

Linux LCD驱动(三)--图形显示

3.  BMP和JPEG图形显示程序3.1  在LCD上显示BMP或JPEG图片的主流程图首先,在程序开始前.要在nfs/dev目录下创建LCD的设备结点,设备名fb0,设备类型为字符设备,主设备号为29,次设备号为0.命令如下:mknod fb0 c 29 0在LCD上显示图象的主流程图如图3.1所示.程序一开始要调用open函数打开设备,然后调用ioctl获取设备相关信息,接下来就是读取图形文件数据,把图象的RGB值映射到显存中,这部分是图象显示的核心.对于JPEG格式的图片,要先经过JPE

Qt 显示图片 放大 缩小 移动(都是QT直接提供的功能)

本文章原创于www.yafeilinux.com 转载请注明出处. 现在我们来实现在窗口上显示图片,并学习怎样将图片进行平移,缩放,旋转和扭曲.这里我们是利用QPixmap类来实现图片显示的. 一.利用QPixmap显示图片. 1.将以前的工程文件夹进行复制备份,我们这里将工程文件夹改名为painter05.(以前已经说过,经常备份工程目录,是个很好的习惯) 2.在工程文件夹的debug文件夹中新建文件夹,我这里命名为images,用来存放要用的图片.我这里放了一张linux.jpg的图片.如下

jquery html5 file 上传图片显示图片

最近做了一个小例子,在上传用户图像时,如何在上传图片时显示图片.在网上找了很多资料也未能如愿,如是,就用jquery ,html5,实现了,由于开发是在linux 所以未能在ie下测试,在forefox,chrom下是可以的. 一.html下的代码是: <div class=' input_box' > <span class='spac' >头</span>相:<input class="input_style" id="'head

Linux LCD驱动(四)--驱动的实现

目录(?)[-] 基本原理 写 framebuffer 驱动程序要做什么 LCD 模块 驱动程序 控制器 什么是 frame buffer 设备 Linux Frame Buffer 驱动程序层次结构 数据结构 接口 一个 LCD controller 驱动程序 分配系统内存作为显存 实现 fb_ops 结构 基本原理 通过 framebuffer ,应用程序用 mmap 把显存映射到应用程序虚拟地址空间,将要显示的数据写入这个内存空间就可以在屏幕上显示出来: 驱动程序分配系统内存作为显存:实现