详解词袋模型_GBM模型

详解词袋模型_GBM模型个人博客:http://www.chenjianqu.com/原文链接:http://www.chenjianqu.com/show-101.html本文是<视觉SLAM14讲>的学习笔记,今天学习到词袋模型,可以用来计算图像间的相似度。基本概念词袋(Bag-of-Words,BoW),是用“图像上有哪几种特征”来描述一个图像的方法。图像的词袋模型可以度量两个...

 个人博客:http://www.chenjianqu.com/

原文链接:http://www.chenjianqu.com/show-101.html

本文是<视觉SLAM14讲>的学习笔记,今天学习到词袋模型,可以用来计算图像间的相似度。

基本概念

    词袋(Bag-of-Words,BoW),是用“图像上有哪几种特征”来描述一个图像的方法。图像的词袋模型可以度量两个图像的相似性:首先需要确定BoW中的“单词”,许多单词放在一起,组成“字典”。然后确定一张图像中出现了哪些单词(这里的单词对应的是特征),把图像转换成了一个向量。最后根据向量,设计一定的计算方式,就能确定图像间的相似性了。

    通过字典和单词,只需一个向量就可以描述整张图像了。该向量描述的是“图像是否含有某类特征”的信息,比单纯的灰度值更加稳定。因为描述向量说的是“是否出现”,而不管它们“在哪儿出现”,所以与物体的空间位置和排列顺序无关,因此称它为Bag-of-Words。在相机发生少量运动时,只要物体仍在视野中出现,就仍然保证描述向量不发生变化。

 

单词的权重

    一张图像可以提取出N个特征,这N个特征可以对应到字典中的N各单词,即得到了该图像的单词序列。考虑到不同的单词(特征)在区分性上的重要性并不相同,我们希望对单词的区分性或重要性加以评估,给它们不同的权值以起到更好的效果,常用的一种做法称为 TF-IDF(Term Frequency–Inverse Document Frequency,频率-逆文档频率)。TF 部分的思想是,某单词在一个图像中经常出现,它的区分度就高。IDF 的思想是,某单词在字典中出现的频率越低,则分类图像时区分度越高。

    在词袋模型中,在建立字典时计算 IDF 部分。统计某个单词 wi 中的特征数量相对于所有特征数量的比例,作为 IDF 部分。假设所有特征数量为 n,wi 数量为 ni,那么:IDFi=log(n/ni) 

    TF 部分则是指某个特征在单个图像中出现的频率。假设图像 A 中,单词wi 出现了 ni 次,而一共出现的单词次数为 n,那么:TFi = ni/n

    单词 wi 的TF-IDF权重:ni TFi * IDFi

    对于某个图像 A,它的特征点可对应到许多个单词,组成它的 Bag-of Words:A = {(w1,η1),(w2,η2), . . . ,(wn,ηn)} = vA 。通过词袋,我们用单个向量 vA 描述了图像 A。向量 vA 是一个稀疏的向量,它的非零部分指示出图像 A 中含有哪些单词,而这些部分的值为 TF-IDF 的值。

 

字典的构建

    字典由很多单词组成,而每一个单词代表了一类特征。一个单词与一个单独的特征点不同,它不是从单个图像上提取出来的,而是某一类特征的组合。所以,字典生成问题类似于一个聚类(Clustering)问题。假设对大量的图像提取了N 个特征点,我们想找一个有 k 个单词的字典,每个单词可以看作局部相邻特征点的集合,这可以用经典的 K-means(K 均值)算法解决。K-means算法流程:

1. 随机选取 k 个中心点:c1, . . . , ck;

2. 对每一个样本,计算与每个中心点之间的距离,取最小的作为它的归类;

3. 重新计算每个类的中心点。

4. 如果每个中心点都变化很小,则算法收敛,退出;否则返回 1。

    考虑到字典的通用性,通常会使用一个较大规模的字典,以保证当前使用环境中的图像特征都曾在字典里出现过。为了加快字典的查找效率,常用K叉树表达字典。假定有 N 个特征点,希望构建一个深度为 d,每次分叉为 k 的树,那么做法如下:

1. 在根节点,用 k-means 把所有样本聚成 k 类(实际中为保证聚类均匀性会使用k-means++)。这样得到了第一层。

2. 对第一层的每个节点,把属于该节点的样本再聚成 k 类,得到下一层。

3. 依此类推,最后得到叶子层。叶子层即为所谓的 Words。

如下图:

A.jpg

    最终在叶子层构建了单词,树结构中的中间节点仅供快速查找时使用。这样一个 k 分支,深度为 d 的树,可以容纳 kd 个单词。在查找某个给定特征对应的单词时,只需将它与每个中间结点的聚类中心比较(一共 d 次),即可找到最后的单词,保证了对数级别的查找效率。

 

相似度计算

    给定两张图像的单词向量vA ,vB,可以通过多种方式计算它们的差异。比如这里使用L1范数形式:

B.jpg

代码实现

    这里使用ORB特征的描述子作为BoW的特征,使用DBoW3库实现词袋模型。字典往往是从更大的数据集中生成的,而且最好是来自目标应该环境类似的地方。我们通常使用较大规模的字典——越大代表字典单词量越丰富,容易找到与当前图像对应的单词。下面是代码实现:

CMakeLists.txt

cmake_minimum_required(VERSION 2.6)
project(dbow3_test)
set( CMAKE_CXX_FLAGS "-std=c++11" )
find_package( OpenCV 3 REQUIRED )
include_directories( ${OpenCV_INCLUDE_DIRS} )
set( DBoW3_INCLUDE_DIRS "/usr/local/include" )
set( DBoW3_LIBS "/usr/local/lib/libDBoW3.a" )
add_executable(dbow3_test main.cpp)
target_link_libraries(dbow3_test ${OpenCV_LIBS} ${DBoW3_LIBS})
install(TARGETS dbow3_test RUNTIME DESTINATION bin)
只听到从架构师办公室传来架构君的声音:
十里崎岖半里平,一峰才送一峰迎。有谁来对上联或下联?

main.cpp

此代码由Java架构师必看网-架构君整理
#include <iostream> #include <string> #include <vector> #include <string.h> #include <dirent.h> #include <DBoW3/DBoW3.h> #include <opencv2/core/core.hpp> #include <opencv2/highgui/highgui.hpp> #include <opencv2/features2d/features2d.hpp> using namespace std; using namespace cv; //读取某路径下的所有文件名 int getFiles(const string path, vector<string>& files) {     int iFileCnt = 0;     DIR *dirptr = NULL;     struct dirent *dirp;     if((dirptr = opendir(path.c_str())) == NULL)//打开一个目录         return 0;     while ((dirp = readdir(dirptr)) != NULL){         if ((dirp->d_type == DT_REG) && 0 ==(strcmp(strchr(dirp->d_name, '.'), ".png")))//判断是否为文件以及文件后缀名         files.push_back(dirp->d_name);         iFileCnt++;     }     closedir(dirptr);     return iFileCnt; } //构建字典 void generateDict() {     string dataPath = "/media/chen/chen/SLAM/projects_test/DBow3_test/data";     vector<string> files;     getFiles(dataPath,files);//获取图片名     //读取图片并提取ORB描述子     vector<Mat> descriptors;     Ptr< Feature2D > detector = ORB::create();     for(const auto &x: files)     {         string picName=dataPath+"/"+x;         cout << picName << endl;         vector<KeyPoint> keypoints;          Mat descriptor;         detector->detectAndCompute( imread(picName), Mat(), keypoints, descriptor );         descriptors.push_back( descriptor );     }     DBoW3::Vocabulary vocab;     vocab.create( descriptors );     cout<<"vocabulary info: "<<vocab<<endl;     vocab.save( "../vocabulary.yml.gz" );     cout<<"done"<<endl;   } int main(int argc, char** argv) {   //生成字典   //generateDict();        //用字典判断图像相似度     //DBoW3::Vocabulary vocab("../vocab_larger.yml.gz");//10张图像得到的字典     DBoW3::Vocabulary vocab("../vocab_larger.yml.gz");//2900张图像得到的字典          //提取ORB的描述子     Mat despA,despB,despC;     Ptr< Feature2D > detector = ORB::create();     vector<KeyPoint> keypoints;      detector->detectAndCompute( imread("../test/A.png"), Mat(), keypoints, despA );     detector->detectAndCompute( imread("../test/B.png"), Mat(), keypoints, despB );     detector->detectAndCompute( imread("../test/C.png"), Mat(), keypoints, despC );          //构建图像的单词向量     DBoW3::BowVector vA,vB,vC;     vocab.transform(despA,vA );     vocab.transform(despB,vB );     vocab.transform(despC,vC );          //比较各图片单词向量的相似度     double scoreAB=vocab.score(vA, vB);     double scoreAC=vocab.score(vA, vC);     double scoreBC=vocab.score(vB, vC);     double scoreAA=vocab.score(vA, vA);          cout<<"scoreAB:"<<scoreAB<<endl;     cout<<"scoreAC:"<<scoreAC<<endl;     cout<<"scoreBC:"<<scoreBC<<endl;     cout<<"scoreAA:"<<scoreAA<<endl;     return 0; }

    代码中的A.png、B.png、C.png分别如下:

C.jpg

    代码输出如下:

Starting: /media/chen/chen/SLAM/projects_test/DBow3_test/build/dbow3_test
scoreAB:0.214842
scoreAC:0.0299757
scoreBC:0.0276582
scoreAA:1
*** Exited normally ***

    可以看到A-B相似,因此得分较高,而A-C、B-C不相似,因此得分较低。

 

 

 

 

架构君码字不易,如需转载,请注明出处:https://javajgs.com/archives/222477
0
 

发表评论