读取视屏文件,保存帧图片为ppm文件

ffmpeg跟sdl的学习过程:
一、版本信息:
ffmpeg-3.0.2.tar.bz2
SDL2-2.0.4.tar.gz
二、编译过程:
1、ffmgeg的编译:
./configure --enable-shared --disable-yasm --prefix=/usr/local/ffmpeg
make
make install

2、sdl的编译:
./configure --prefix=/usr/local/sdl
make
make install

3、系统环境配置:
查看/etc/ld.so.conf,知道 ”系统共享库路径”

方法一:把编译好的sdl的动态库,ffmpeg的动态库,复制到 “系统共享库路径“ 中,复制完成后,创建好软连接。
(完成之后调用指令ldconfig ???)

方法二:修改/etc/ld.so.conf
把下面的两行追加到ld.so.conf文件中
/usr/local/ffmpeg/lib
/usr/local/sdl/lib
调用ldconfig指令。
ldconfig做的这些东西都与运行程序时有关,跟编译连接sdl库,编译连接ffmpeg库一点关系都没有。编译的时候还是该加-L就得加,不要混淆了

方法三:临时环境变量
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/ffmpeg/lib:/usr/local/sdl/lib

方法四:修改shell文件:
$ vi ~/.bash_profile
没有LD_LIBRARY_PATH的话,添加:
LD_LIBRARY_PATH=/usr/local/ffmpeg/lib:/usr/local/sdl/lib
export LD_LIBRARY_PATH

有LD_LIBRARY_PATH的话,
在LD_LIBRARY_PATH之后进行路径添加即可。
LD_LIBRARY_PATH=.......:/usr/local/ffmpeg/lib:/usr/local/sdl/lib

修改完shell文件之后,然后运行
$ source ~/.bash_profile 就行了。
------------------------------------------------------------------
在shell下尝试设置LD_LIBRARY_PATH,以下面这种形式设置,老是报错bash: LD_LIBRARY_PATH: command not found,
LD_LIBRARY_PATH=/usr/local/lib
LD_LIBRARY_PATH = $ LD_LIBRARY_PATH:/usr/local/lib
可能是因为系统之前没有设置过LD_LIBRARY_PATH,于是改成这样:
export LD_LIBRARY_PATH=/usr/local/lib
然后用 echo $LD_LIBRARY_PATH检查一下是否真的设置成功
------------------------------------------------------------
三、编写代码,调用ffmpeg动态库。
代码,读取视屏文件,保存帧图片为ppm文件

#include <libavcodec/avcodec.h>
#include <libavformat/avformat.h>
#include <libswscale/swscale.h>
#include <stdio.h>

void SaveFrame(AVFrame *pFrame, int width, int height, int iFrame)
{
  FILE *pFile;
  char szFilename[32];
  int y;

  // Open file
  sprintf(szFilename, "frame%d.ppm", iFrame);
  pFile=fopen(szFilename, "wb");
  if(pFile==NULL)
  return;

  // Write header
  fprintf(pFile, "P6\n%d %d\n255\n", width, height);

  // Write pixel data
  for(y=0; y<height; y++)
  fwrite(pFrame->data[0]+y*pFrame->linesize[0], 1, width*3, pFile);

  // Close file
  fclose(pFile);
}

int main(int argc, char* argv[])
{
  AVFormatContext *pFormatCtx;
  int i, videoindex;
  AVCodecContext *pCodecCtx;
  AVCodec *pCodec;
  av_register_all();
  avformat_network_init();
  pFormatCtx = avformat_alloc_context();
  if(avformat_open_input(&pFormatCtx,argv[1],NULL,NULL)!=0)
  {
    printf("open file error\n");
    return -1;
  }

  if ( avformat_find_stream_info(pFormatCtx,NULL) < 0 )
  {
    return -1;
  }

  i = 0;
  int videostream = -1;
  printf("pFormatCtx->nb_streams=%d\n", pFormatCtx->nb_streams);
  for(i=0;i<pFormatCtx->nb_streams;i++)
  {
    if (pFormatCtx->streams[i]->codec->codec_type == AVMEDIA_TYPE_VIDEO)
    {
      videostream = i;
      break;
    }
  }
  printf("videostream=%d\n", videostream);

  if (-1 == videostream)
  {
    printf("error no video stream\n");
    return;
  }

  pCodecCtx = pFormatCtx->streams[videostream]->codec;

  pCodec = avcodec_find_decoder( pCodecCtx->codec_id );

  if(NULL == pCodec)
  {
    printf("couldn‘t find the decode\n");
    return -1;
  }

  if( avcodec_open2(pCodecCtx, pCodec, NULL) < 0)
  {
    printf("open decode error\n");
    return -1;
  }

  AVFrame *pFrame,*pFrameRGB;
  pFrame = av_frame_alloc();
  pFrameRGB = av_frame_alloc();
  uint8_t *out_buffer;

  int num = avpicture_get_size(AV_PIX_FMT_RGB24, pCodecCtx->width, pCodecCtx->height);
  printf("num=%d\n", num);

  out_buffer = (uint8_t *)av_malloc(num*sizeof(uint8_t));
  avpicture_fill((AVPicture *)pFrameRGB, out_buffer, AV_PIX_FMT_RGB24, pCodecCtx->width, pCodecCtx->height);

  AVPacket packet;
  int ret = -1;
  i = 0;
  struct SwsContext *img_convert_ctx = NULL;
  img_convert_ctx = sws_getContext(pCodecCtx->width,pCodecCtx->height,pCodecCtx->pix_fmt , pCodecCtx->width, pCodecCtx->height, AV_PIX_FMT_RGB24, SWS_BICUBIC, NULL, NULL, NULL);
  while(av_read_frame(pFormatCtx, &packet)>=0)
  {
    //printf("i=%d, videoindex=%d, packet.stream_index=%d\n", i++, videoindex, packet.stream_index);

    if(packet.stream_index == videostream)
    {
      //printf("111111\n");
      int got_picture = -1;
      ret = avcodec_decode_video2(pCodecCtx, pFrame, &got_picture, &packet);

      if(ret < 0)
      {
        printf("decode error\n");
        return -1;
      }

      //printf("got_picture:%d\n",got_picture);
      if(got_picture)
      {
        sws_scale(img_convert_ctx, pFrame->data, pFrame->linesize, 0, pCodecCtx->height, pFrameRGB->data, pFrameRGB->linesize);
        if(++i<=20)
        {
          SaveFrame(pFrameRGB, pCodecCtx->width, pCodecCtx->height, i);
        }

      }
    }

  av_free_packet(&packet);
  }

  free(out_buffer);
  av_free(pFrameRGB);

  // Free the YUV frame
  av_free(pFrame);

  // Close the codec
  avcodec_close(pCodecCtx);

  // Close the video file
  avformat_close_input(&pFormatCtx);

  return 0;
}

编译指令:
gcc -o test main.c -I/usr/local/ffmpeg/include -L/usr/local/ffmpeg/lib -lavutil -lavformat -lavcodec -lswscale -lz

sdl,ffmpeg都调用的编译指令:
gcc -o test main.c -I/usr/local/ffmpeg/include -I/usr/local/sdl/include -L/usr/local/ffmpeg/lib -L/usr/local/sdl/lib -lavutil -lavformat -lavcodec -lswscale -lz -lSDL2

时间: 2024-10-23 03:31:49

读取视屏文件,保存帧图片为ppm文件的相关文章

关于文件保存/关闭时报错:文件正由另一进程使用,因此该进程无法访问此文件。

起因:最近给Unity上的游戏写关于存档的脚本,使用了xml.然后发现每次文件保存时,也就是调用XmlDocument.Save()对象方法的时候就会报错说该文件路径分享异常啥的我也不记得了.然后搞了半天,无果.猜测原因可能是因为文件被占用的原因,遂简化代码在新的解决方案里重现异常. 如图: 运行报错,第33行,"文件正由另一进程使用,因此该进程无法访问此文件." 网上找答案,这个异常网上也有答案,虽然他们的代码不是xml相关的但是错误原理相同. 错误原因是:文件正在被流调用.要想保存

[R] 保存pheatmap图片对象到文件

一般我们使用pheatmap通过Rstudio交互得到的图片在plots的Export导出即可,如何保存对象到文件呢?这个需求在自动化流程中很常见,作者似乎也没说明. 生成示例数据: test = matrix(rnorm(200), 20, 10) test[1:10, seq(1, 10, 2)] = test[1:10, seq(1, 10, 2)] + 3 test[11:20, seq(2, 10, 2)] = test[11:20, seq(2, 10, 2)] + 2 test[1

保存远程图片到本地文件夹!

<% Function saveimg(url) savepath="upload" temp=split(url,".") '以下是用时间与随机数重命名文件名 randomize ranNum=int(90000*rnd)+10000'随机数 filename=year(now)&month(now)&day(now)&hour(now)&minute(now)&second(now)&ranNum&&

opencv视屏流嵌入wxpython框架

前几篇博客分享搭建人脸识别与情绪判断的环境和源码,但是没有UI,界面很难看,一打开就是opencv弹出的一个视屏框.处女座的我看着非常难受,于是决定做一个UI,稍微规矩好看一点,再怎么说,这样的话也算是一个小软件,不再是运行源码了. 上网到处查了一圈之后,发现这是一个空缺,好像没有人在做这个,看到的唯一一个有点相似的是用wxpython制作一个视屏播放器.和这个显示opencv的实时视屏还是有点差距的,但是也有指导作用. 使用版本:python-3.6.3(anaconda)   opencv-

Android数据保存之文件保存

前言: 上一篇文章写了在Android中利用SharedPreferences保存数据,SharedPreferences在保存数据的时候主要是保存一些应用程序的设置信息或者少量的用户信息,而且是以key-value形式保存的String类的信息,比較有局限性. 比方你须要保存从网络获取的图片到本地作为缓存数据,而且数量比較大.SharedPreferences就不能满足你的需求了,这个时候就要用到基本上全部平台都会用到的文件保存. Android中以文件形式把数据保存到磁盘上与其它平台基本上都

第十四周 【项目2-用文件保存的学生名单】若干名学生的学号 姓名和C++课、高数和英语成绩

运行代码: /* *Copyright (c)2014,烟台大学计算机与控制工程学院 *All rights reserved. *文件名称:d.cpp *作 者:张旺华 *完成日期:2015年6月3日 *版 本 号:v1.0 */ /* *[项目2-用文件保存的学生名单] * 文件score.dat中保存的是若干名学生的学号 姓名和C++课.高数和英语成绩. */ #include <fstream> #include<iostream> #include<string&g

第十四周 *【项目2-用文件保存的学生名单】

/* *Copyright (c)2014,烟台大学计算机与控制工程学院 *All rights reserved. *文件名称:d.cpp *作 者:张旺华 *完成日期:2015年6月3日 *版 本 号:v1.0 */ /* *[项目2-用文件保存的学生名单] * 文件score.dat中保存的是若干名学生的姓名和C++课.高数和英语成绩. */ #include <fstream> #include<iostream> #include<string> #inclu

第17章 内存映射文件(3)_稀疏文件(Sparse File)

17.8 稀疏调拨的内存映射文件 17.8.1 稀疏文件简介 (1)稀疏文件(Sparse File):指的是文件中出现大量的0数据,这些数据对我们用处不大,但是却一样的占用空间.NTFS文件系统对此进行了优化,那些无用的0字节被用一定的算法压缩起来.例如声明一个很大的稀疏文件(如100GB),这个文件实际上并不需要占用那么大的空,内部都是一些无用的0数据,那么NTFS就会利用算法释放这些无用的0字节空间,这是对磁盘占用空间的一种优化.但要注意FAT32并不支持稀疏文件的压缩. (2)与稀疏文件

如何在web.xml文件中引入其他的xml文件

最近在做一个Servlet+javaBean的项目,服务器用的是tomcat.因此,所有的页面都是servlet请求,而且很多,需要在web.xml文件中进行配置.导致web.xml文件特别大,而且这个系统以后会做大,并且会出现系统拆分,为了便于以后拆分,于是想到将web.xml文件中的servlet和servlet-mapping能够从web.xml脱离出来,用其他xml文件保存然后在web.xml文件中引入这些文件,就想类似引入struts.config一样.        在网上找了半天也