相似图片搜索的原理和实现——颜色分布法

#1,原理

每张图片都可以生成颜色分布的直方图(color histogram)。如果两张图片的直方图很接近,就可以认为它们很相似。

任何一种颜色都是由红绿蓝三原色(RGB)构成的,所以上图共有4张直方图(三原色直方图 + 最后合成的直方图)。

如果每种原色都可以取256个值,那么整个颜色空间共有1600万种颜色(256的三次方)。针对这1600万种颜色比较直方图,计算量实在太大了,因此需要采用简化方法。可以将0~255分成四个区:0~63为第0区,64~127为第1区,128~191为第2区,192~255为第3区。这意味着红绿蓝分别有4个区,总共可以构成64种组合(4的3次方)。

任何一种颜色必然属于这64种组合中的一种,这样就可以统计每一种组合包含的像素数量。

上图是某张图片的颜色分布表,将表中最后一栏提取出来,组成一个64维向量(7414, 230, 0, 0, 8, ..., 109, 0, 0, 3415, 53929)。这个向量就是这张图片的特征值或者叫"指纹"。

于是,寻找相似图片就变成了找出与其最相似的向量。这可以用皮尔逊相关系数或者余弦相似度算出。

#2,c++代码实现

#include<math.h>
#include<bitset>
#include<iostream>
#include<vector>
#include<string>
#include<fstream>
#include <time.h>
#include<opencv2/core/core.hpp>
#include<opencv2/highgui/highgui.hpp>

using namespace std;
using namespace cv;

void getRGB(Mat &pic, vector<int > &PixVec);
int bit2int(bitset<2>& bbit, bitset<2>& gbit, bitset<2>& rbit);
bitset<2> classify(int val);
double correlation(vector<int> &Pix1, vector<int> &Pix2);
void getNameFromTxt(vector<string> &OrigNamePic, string FileName, string OrigFileName);

int main(){
  double beginTime = clock();

  string FileName="rawdata";
  string oeder1 = "DIR .\\" + FileName + "\\*.jpg / B >FileNameList.TXT ";
  system(oeder1.c_str());

  vector<string> PicName;
  getNameFromTxt(PicName, FileName, "FileNameList.TXT");

  int Piclen = PicName.size();
  for (int m = 0; m < Piclen; m++){
    cout << "Compare the " << m << "-th picture with the others!" << endl;
    for (int n = m+1; n < Piclen; n++){
      Mat pic1 = imread(PicName[m], 1);
      Mat pic2 = imread(PicName[n], 1);

      //PixVec
      vector<int> Pix1Vec(64, 0);
      getRGB(pic1, Pix1Vec);
      vector<int> Pix2Vec(64, 0);
      getRGB(pic2, Pix2Vec);

      double correlVal = correlation(Pix1Vec, Pix2Vec);
      //cout << "The value of correlation coefficient is: " << correlVal << endl;
      if (correlVal > 0.999999){
        string movePic = "move .\\" + PicName[m]+" DeletePic >nul";
        system(movePic.c_str());
        break;
      }
    }
  }

  double endTime = clock();
  cout << "beginTime:" << beginTime << endl
    << "endTime:" << endTime << endl
    << "endTime-beginTime:" << endTime - beginTime << "ms" << endl;

  system("Pause");
  return 0;
}

void getNameFromTxt(vector<string> &OrigNamePic, string fileName, string OrigFileName){
  ifstream OrigNameIn(OrigFileName);
  while (!OrigNameIn.eof()){
    string cacheNameO;
    getline(OrigNameIn, cacheNameO);
    int len = cacheNameO.size();
    if (len>0){
      string realName = fileName + "\\" + cacheNameO;
      OrigNamePic.push_back(realName);
    }
  }

  OrigNameIn.close();
  string order = "del " + OrigFileName;
  system(order.c_str());
}

void getRGB(Mat &pic, vector<int > &PixVec){
  int rowNum=pic.rows;
  int colNum=pic.cols;
  int pixNum=colNum*pic.channels();

  if(pic.channels()!=3)
    cout<<"The channel of the picture is not 3!"<<endl;

  Mat_<Vec3b>::iterator it=pic.begin<Vec3b>();
  Mat_<Vec3b>::iterator itend=pic.end<Vec3b>();

  for(;it!=itend;++it){
    bitset<2> bpix,gpix,rpix;
    bpix=classify((*it)[0]);
    gpix=classify((*it)[1]);
    rpix=classify((*it)[2]);

    int clasVal=bit2int(bpix, gpix, rpix);
    PixVec[clasVal]++;
  }

}

int bit2int(bitset<2>& bbit,bitset<2>& gbit,bitset<2>& rbit){
  bitset<6> bitval;
  for(int i=0;i<2;i++){
    bitval[0*2+i]=rbit[i];
    bitval[1*2+i]=gbit[i];
    bitval[2*2+i]=bbit[i];
  }
  return bitval.to_ulong();
}

bitset<2> classify(int val){
  if (val<64){
    bitset<2> bitval(0);
    return bitval;
  }
  else if (val<128){
    bitset<2> bitval(1);
    return bitval;
  }
  else if (val<192){
    bitset<2> bitval(2);
    return bitval;
  }
  else {//if(val<256)
    bitset<2> bitval(3);
    return bitval;
  }
}

double correlation(vector<int> &Pix1, vector<int> &Pix2){
  double XYsum=0.0, Xsum=0.0, Ysum=0.0;
  double Xmean=0.0, Ymean=0.0;

  int len=Pix1.size();

  for(int i=0; i<len; i++){
    Xmean += Pix1[i];
    Ymean += Pix2[i];
  }
  Xmean =(double)Xmean/(double)len;
  Ymean =(double)Ymean/(double)len;

  for(int j=0;j<len;j++){
    XYsum += ((double)Pix1[j]-Xmean)*((double)Pix2[j]-Ymean);
    Xsum += ((double)Pix1[j]-Xmean)*((double)Pix1[j]-Xmean);
    Ysum += ((double)Pix2[j]-Ymean)*((double)Pix2[j]-Ymean);
  }

  double finalVal=(double)XYsum/(double)(sqrt(Xsum)*sqrt(Ysum));
  return finalVal;
}

#3,程序运行结果

时间: 2024-12-16 14:55:50

相似图片搜索的原理和实现——颜色分布法的相关文章

相似图片搜索的原理

http://www.ruanyifeng.com/blog/2011/07/principle_of_similar_image_search.html http://www.ruanyifeng.com/blog/2013/03/similar_image_search_part_ii.html 相似图片搜索的原理 作者: 阮一峰 日期: 2011年7月21日 上个月,Google把"相似图片搜索"正式放上了首页. 你可以用一张图片,搜索互联网上所有与它相似的图片.点击搜索框中照相

相似图片搜索的原理(二)

二年前,我写了<相似图片搜索的原理>,介绍了一种最简单的实现方法. 昨天,我在isnowfy的网站看到,还有其他两种方法也很简单,这里做一些笔记. 一.颜色分布法 每张图片都可以生成颜色分布的直方图(color histogram).如果两张图片的直方图很接近,就可以认为它们很相似. 任何一种颜色都是由红绿蓝三原色(RGB)构成的,所以上图共有4张直方图(三原色直方图 + 最后合成的直方图). 如果每种原色都可以取256个值,那么整个颜色空间共有1600万种颜色(256的三次方).针对这160

图片搜索的原理

http://www.zhihu.com/question/19726630 Google 图片搜索的原理是什么? 1 条评论 分享 按投票排序按时间排序 18 个回答 389赞同反对,不会显示你的姓名 知乎用户,安全行业 XsXs.知乎用户.知乎用户 等人赞同 针对这个问题,请教了算法组的同事,他分享了基本的思路: 对于这种图像搜索的算法,一般是三个步骤: 1. 将目标图片进行特征提取,描述图像的算法很多,用的比较多的是:SIFT描述子,指纹算法函数,bundling features算法,h

相似图片搜索的原理(转)

http://www.ruanyifeng.com/blog/2011/07/principle_of_similar_image_search.html 作者: 阮一峰 日期: 2011年7月21日 上个月,Google把"相似图片搜索"正式放上了首页. 你可以用一张图片,搜索互联网上所有与它相似的图片.点击搜索框中照相机的图标. 一个对话框会出现. 你输入网片的网址,或者直接上传图片,Google就会找出与其相似的图片.下面这张图片是美国女演员Alyson Hannigan. 上传

相似图片搜索原理一(ahash—c++实现)

ahash,全称叫做average hash,应该是phash(perceptual hash, 感知哈希)算法的一种.是基于图像内容搜索最简单的一种(search image by image),因此也有很多的局限性.主要用于由图像的缩略图搜原图,对于图像的旋转.平移.对比度和微变形等都无能为力,所以很局限.此次讲解主要分为两个部分,理论部分主要参考是网上的资料,最核心的应该是自己的c++代码实现. 理论部分: 理论部分主要包括以下几个步骤: <1> 图像缩放-将图像缩放到8*8大小 <

Google 以图搜图 - 相似图片搜索原理 - Java实现

前阵子在阮一峰的博客上看到了这篇<相似图片搜索原理>博客,就有一种冲动要将这些原理实现出来了. Google "相似图片搜索":你可以用一张图片,搜索互联网上所有与它相似的图片. 打开Google图片搜索页面: 点击使用上传一张angelababy原图: 点击搜索后,Google将会找出与之相似的图片,图片相似度越高就越排在前面.如: 这种技术的原理是什么?计算机怎么知道两张图片相似呢? 根据Neal Krawetz博士的解释,实现相似图片搜素的关键技术叫做"感知

相似图片搜索原理二(phash—c++实现)

前段时间介绍过相似图片搜索原理一(ahash) http://blog.csdn.net/lu597203933/article/details/45101859,它是基于内容检索最简单的一种:这里介绍它的增强版本感知哈希算法(perceptual hash, phash).它主要也是用缩略图搜原图并能达到较好点的效果. 理论部分: 理论部分主要包括以下几个步骤: <1> 图像缩放-将图像缩放到32*32大小 <2>灰度化-对32*32大小的图像进行灰度化 <3>离散余

相似图片搜索的三种哈希算法

想必大家都用google或baidu的识图功能,上面就是我搜索冠希哥一幅图片的结果,达到图片比较目的且利用信息指纹比较有三种算法,这些算法都很易懂,下面分别介绍一下: 一.平均哈希算法(aHash) 此算法是基于比较灰度图每个像素与平均值来实现的,最适用于缩略图,放大图搜索. 步骤: 1.缩放图片:为了保留结构去掉细节,去除大小.横纵比的差异,把图片统一缩放到8*8,共64个像素的图片. 2.转化为灰度图:把缩放后的图片转化为256阶的灰度图. 附上灰度图相关算法(R = red, G = gr

Google图片搜索

本博文的主要内容有 .Google图片搜索的介绍 .Google图片之普通搜索    .Google图片之高级搜索 1.Google图片搜索的介绍   Google的图片搜索,不仅通过关键字查找拥有特定标注的图片,还可以根据图片的内容进行筛选图片.包括图片类型.图片颜色等. Google的图片搜索官网:  http://images.google.com/ 或  http://images.google.cn/ 1.Google图片之普通搜索 2.Google图片之高级搜索