<ruby id="bdb3f"></ruby>

    <p id="bdb3f"><cite id="bdb3f"></cite></p>

      <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
        <p id="bdb3f"><cite id="bdb3f"></cite></p>

          <pre id="bdb3f"></pre>
          <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

          <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
          <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

          <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                <ruby id="bdb3f"></ruby>

                企業??AI智能體構建引擎,智能編排和調試,一鍵部署,支持知識庫和私有化部署方案 廣告
                  上一篇教程中我們介紹了如何使用OpenCv封裝的FaceRecognizer類實現簡單的人臉性別識別,這里我們為大家提供另外一種基本的性別識別手段——支持向量機(SVM)。   支持向量機在解決二分類問題方面有著強大的威力(當然也可以解決多分類問題),性別識別是典型的二分類模式識別問題,因此很適合用SVM進行處理,同時OpenCv又對SVM進行了很好的封裝,調用非常方便,因此我們在這個性別識別程序中考慮加入SVM方法。   在這里我們采用了HOG+SVM的模式來進行,即先提取圖像的HOG特征,然后將這些HOG特征輸入SVM中進行訓練。   一、SVM概述   SVM的數學原理十分復雜,我們不在這里過多討論,有關OpenCv中SVM的用法,這里為大家提供兩篇博客以供參考:[OpenCV的SVM用法](http://blog.csdn.net/carson2005/article/details/6547250)以及[OpenCV 2.4+ C++ SVM介紹](http://www.cnblogs.com/justany/archive/2012/11/23/2784125.html)。   二、HOG特征概述   HOG特征是圖像的梯度特征,具體參見:[目標檢測的圖像特征提取之(一)HOG特征](http://blog.csdn.net/zouxy09/article/details/7929348)   三、建立訓練集   這里繼續沿用上一篇博文中提到的性別識別訓練集,400張男性人臉樣本400張女性人臉樣本,下載地址:[性別識別數據集](http://download.csdn.net/detail/u013088062/9389882)。   四、算法的訓練與測試   1、建立控制臺工程,配置OpenCv環境   這里將工程命名為:GenderSVM。   2、編寫批量讀取函數read_csv()   只要涉及到訓練,都需要批量讀取訓練樣本的操作,SVM也不例外,因此需要先編寫批量讀取函數read_csv()。考慮到之前的批量讀取函數必須一次性將所有訓練樣本讀入內存中,內存消耗較大,在這里做一個小小的改進: ~~~ void read_csv(String& csvPath,Vector<String>& trainPath,Vector<int>& label,char separator = ';') { string line,path,classLabel; ifstream file(csvPath.c_str(),ifstream::in); while (getline(file,line)) { stringstream lines(line); getline(lines,path,separator); getline(lines,classLabel); if (!path.empty()&&!classLabel.empty()) { trainPath.push_back(path); label.push_back(atoi(classLabel.c_str())); } } } ~~~   可見這里我們將輸入參數由vector<Mat>改為vector<String>,然后返回裝有訓練樣本的所有路徑的容器,需要時在根據其中的路徑進行讀取,降低了內存占用量。   3、讀入訓練樣本路徑 ~~~ string trainCsvPath = "E:\\性別識別數據庫—CAS-PEAL\\at.txt"; vector<String> vecTrainPath; vector<int> vecTrainLabel; read_csv(trainCsvPath,vecTrainPath,vecTrainLabel); ~~~   順利批量讀入路徑: ![](https://box.kancloud.cn/2016-02-25_56ce6386132ef.png)   4、訓練初始化   在提取HOG特征之前,需要初始化訓練數據矩陣: ~~~ /**********初始化訓練數據矩陣**********/ int iNumTrain = 800; Mat trainDataHog; Mat trainLabel = Mat::zeros(iNumTrain,1,CV_32FC1); ~~~   需要強調的是SVM的訓練數據必須都是CV_32FC1格式,因此這里顯式的將標簽矩陣trainLabel初始化為CV_32FC1格式,trainDataHog稍后進行初始化。   5、提取圖像HOG特征   接下來循環讀入所有的訓練樣本,提取HOG特征,放在訓練數據矩陣中。考慮嵌套代碼的復雜性,這里先給出整體代碼,稍后解釋: ~~~ /**********提取HOG特征,放入訓練數據矩陣中**********/ Mat imageSrc; for (int i = 0; i < iNumTrain; i++) { imageSrc = imread(vecTrainPath[i].c_str(),1); resize(imageSrc,imageSrc,Size(64,64)); HOGDescriptor *hog = new HOGDescriptor(cvSize(64,64),cvSize(16,16), cvSize(8,8),cvSize(8,8),9); vector<float> descriptor; hog->compute(imageSrc,descriptor,Size(1,1),Size(0,0)); if (i == 0) { trainDataHog = Mat::zeros(iNumTrain,descriptor.size(),CV_32FC1); } int n = 0; for (vector<float>::iterator iter = descriptor.begin();iter != descriptor.end();iter++) { trainDataHog.at<float>(i,n) = *iter; n++; } trainLabel.at<float>(i,0) = vecTrainLabel[i]; } ~~~   接下來我們對這段代碼進行詳細解釋。   (1)循環讀入訓練樣本   從vecTrainPath容器中逐條取出訓練樣本路徑,然后讀取: ~~~ imageSrc = imread(vecTrainPath[i].c_str(),1); ~~~   (2)尺寸歸一化   我們這里將圖像尺寸歸一化為64*64,這是因為當時在寫程序時參考了一篇關于HOG特征的博客。這里的尺寸大家可以隨意設定,當然也會影響最終的識別效率,64*64可能并不是一個最優的尺寸: ~~~ imageSrc = imread(vecTrainPath[i].c_str(),1); resize(imageSrc,imageSrc,Size(64,64)); ~~~   (3)計算HOG特征   OpenCv給出的HOG特征計算接口非常簡潔,三句話即完成: ~~~ HOGDescriptor *hog = new HOGDescriptor(cvSize(64,64),cvSize(16,16), cvSize(8,8),cvSize(8,8),9); vector<float> descriptor; hog->compute(imageSrc,descriptor,Size(1,1),Size(0,0)); ~~~   提取的特征以容器的數據 結構形式給出。至于計算時的參數設定,參見我之前提供的那兩篇博客即可。   (4)初始化數據矩陣trainDataHog   前面提到,SVM中用到的訓練數據矩陣必須是CV_32FLOAT形式的,因此需要對數據矩陣顯示的指定其尺寸和類型。然后由于trainDataHog行數為訓練樣本個數,而列數為圖片HOG特征的維數,因此無法在進行HOG特征提取之前確定其尺寸,因此這里選擇在進行完第一張樣本的HOG特征、得到對應維數之后,在進行初始化: ~~~ if (i == 0) { trainDataHog = Mat::zeros(iNumTrain,descriptor.size(),CV_32FC1); } ~~~   (5)將得到的HOG特征存入數據矩陣   得到的HOG特征是浮點數容器的形式,我們需要將其轉換成矩陣的形式以便于訓練SVM,這就涉及到了vector和Mat兩個數據結構的遍歷。vector遍歷這里推薦使用迭代器的方式,而Mat遍歷這里則選擇了相對耗時但是最簡單的方式——直接使用at函數: ~~~ int n = 0; for (vector<float>::iterator iter = descriptor.begin();iter != descriptor.end();iter++) { trainDataHog.at<float>(i,n) = *iter; n++; } trainLabel.at<float>(i,0) = vecTrainLabel[i]; ~~~   訓練得到的HOG特征如圖所示: ![](https://box.kancloud.cn/2016-02-25_56ce6386282d0.png)   可見在當前的參數設定下,提取到的HOG特征為1764維,共800張訓練樣本,每一行代表一個圖片的HOG特征向量。通過“ctrl+鼠標滾輪”放大觀察特征向量的具體參數: ![](https://box.kancloud.cn/2016-02-25_56ce6386420bb.png)   6、訓練SVM分類器   有關OpenCv中SVM分類器的使用可以參見以下博客:[OpenCV 2.4+ C++ SVM介紹](http://www.cnblogs.com/justany/archive/2012/11/23/2784125.html)。   首先,初始化相關參數: ~~~ /**********初始化SVM分類器**********/ CvSVM svm; CvSVMParams param; CvTermCriteria criteria; criteria = cvTermCriteria( CV_TERMCRIT_EPS, 1000, FLT_EPSILON ); param = CvSVMParams(CvSVM::C_SVC, CvSVM::RBF, 10.0, 0.09, 1.0, 10.0, 0.5, 1.0, NULL, criteria ); ~~~   開始訓練、訓練完成后保存分類器: ~~~ /**********訓練并保存SVM**********/ svm.train(trainDataHog,trainLabel,Mat(),Mat(),param); svm.save("E:\\性別識別數據庫—CAS-PEAL\\SVM_SEX_Model.txt"); ~~~   注意我們這里選擇將分類器保存為txt形式: ![](https://box.kancloud.cn/2016-02-25_56ce638659fa0.png)   當然,我們可以打開這個txt文件,查看里面的參數: ![](https://box.kancloud.cn/2016-02-25_56ce63866fd62.png)   7、測試分類效果   測試過程和訓練過程基本相同,讀取圖片、尺寸歸一化、提取HOG特征、預測: ~~~ /**********測試SVM分類性能**********/ Mat testImage = imread("E:\\性別識別數據庫—CAS-PEAL\\測試樣本\\女性測試樣本\\face_35.bmp"); resize(testImage,testImage,Size(64,64)); HOGDescriptor *hog = new HOGDescriptor(cvSize(64,64),cvSize(16,16), cvSize(8,8),cvSize(8,8),9); vector<float> descriptor; hog->compute(testImage,descriptor,Size(1,1),Size(0,0)); Mat testHog = Mat::zeros(1,descriptor.size(),CV_32FC1); int n = 0; for (vector<float>::iterator iter = descriptor.begin();iter != descriptor.end();iter++) { testHog.at<float>(0,n) = *iter; n++; } int predictResult = svm.predict(testHog); ~~~   8、完整代碼  這里給出HOG+SVM進行性別識別的完整代碼: ~~~ // GenderSVM.cpp : 定義控制臺應用程序的入口點。 // #include "stdafx.h" #include <opencv2\opencv.hpp> #include <iostream> #include <sstream> #include <fstream> using namespace std; using namespace cv; void read_csv(String& csvPath,vector<String>& trainPath,vector<int>& label,char separator = ';') { string line,path,classLabel; ifstream file(csvPath.c_str(),ifstream::in); while (getline(file,line)) { stringstream lines(line); getline(lines,path,separator); getline(lines,classLabel); if (!path.empty()&&!classLabel.empty()) { trainPath.push_back(path); label.push_back(atoi(classLabel.c_str())); } } } int _tmain(int argc, _TCHAR* argv[]) { /**********批量讀入訓練樣本路徑**********/ string trainCsvPath = "E:\\性別識別數據庫—CAS-PEAL\\at.txt"; vector<String> vecTrainPath; vector<int> vecTrainLabel; read_csv(trainCsvPath,vecTrainPath,vecTrainLabel); /**********初始化訓練數據矩陣**********/ int iNumTrain = 800; Mat trainDataHog; Mat trainLabel = Mat::zeros(iNumTrain,1,CV_32FC1); /**********提取HOG特征,放入訓練數據矩陣中**********/ Mat imageSrc; for (int i = 0; i < iNumTrain; i++) { imageSrc = imread(vecTrainPath[i].c_str(),1); resize(imageSrc,imageSrc,Size(64,64)); HOGDescriptor *hog = new HOGDescriptor(cvSize(64,64),cvSize(16,16), cvSize(8,8),cvSize(8,8),9); vector<float> descriptor; hog->compute(imageSrc,descriptor,Size(1,1),Size(0,0)); if (i == 0) { trainDataHog = Mat::zeros(iNumTrain,descriptor.size(),CV_32FC1); } int n = 0; for (vector<float>::iterator iter = descriptor.begin();iter != descriptor.end();iter++) { trainDataHog.at<float>(i,n) = *iter; n++; } trainLabel.at<float>(i,0) = vecTrainLabel[i]; } /**********初始化SVM分類器**********/ CvSVM svm; CvSVMParams param; CvTermCriteria criteria; criteria = cvTermCriteria( CV_TERMCRIT_EPS, 1000, FLT_EPSILON ); param = CvSVMParams(CvSVM::C_SVC, CvSVM::RBF, 10.0, 0.09, 1.0, 10.0, 0.5, 1.0, NULL, criteria ); /**********訓練并保存SVM**********/ svm.train(trainDataHog,trainLabel,Mat(),Mat(),param); svm.save("E:\\性別識別數據庫—CAS-PEAL\\SVM_SEX_Model.txt"); /**********測試SVM分類性能**********/ Mat testImage = imread("E:\\性別識別數據庫—CAS-PEAL\\測試樣本\\女性測試樣本\\face_35.bmp"); resize(testImage,testImage,Size(64,64)); HOGDescriptor *hog = new HOGDescriptor(cvSize(64,64),cvSize(16,16), cvSize(8,8),cvSize(8,8),9); vector<float> descriptor; hog->compute(testImage,descriptor,Size(1,1),Size(0,0)); Mat testHog = Mat::zeros(1,descriptor.size(),CV_32FC1); int n = 0; for (vector<float>::iterator iter = descriptor.begin();iter != descriptor.end();iter++) { testHog.at<float>(0,n) = *iter; n++; } int predictResult = svm.predict(testHog); return 0; } ~~~   五、總結   以上就是通過HOG特征+SVM進行性別識別的完整代碼,在編寫代碼的過程中遇到了一些有趣的問題,這里稍作總結。   1、變量命名格式   當代碼量很大的時候,變量的命名格式就顯得十分重要,相信大家早已不用那種a、b、m、n這種簡單的無意義的命名方法了。在C++中推薦大家使用匈牙利命名法,即“類型縮寫+變量名縮寫”的命名格式。例如vecTrainPath這個變量名,前綴“vec”表明這個變量是一個vector格式的變量,而“TrainPath”則表明這個容器中存放的是訓練樣本的路徑。這種命名方式在大型工程中非常重要,還有一點需要注意的是當變量名中出現多個縮略短語時,推薦第一個短語小寫,其他短語的首字母大寫。   2、為何選擇HOG特征   通過實驗發現,直接將圖像向量化后輸入SVM(不經過特征提取)的方式的正確率將不理想。雖然本質上像素本身最能代表圖像的語義信息,但由于SVM并不具備特征提取能力,因此效果不佳。確切的說,特征提取是模式分類的必要過程,即便是深度學習也不例外,因為深度學習(DeepLearning)本質上也是一種特征提取的手段,只不過提取得到的特征更深層,更抽象,表現力更強。為此我之前曾專門寫過一篇博客進行闡述:[淺談模式識別中的特征提取](http://blog.csdn.net/u013088062/article/details/45952613)   當然這里大家可以嘗試提取其他特征之后再進行分類,甚至可以考慮通過提起深度特征來進行分類,這里只是以HOG特征為例而已。   4、有關vector的一些使用(為什么不用int型數組)   在這段代碼中我們大量用到了vector結構,這是C++11的新特性。仔細觀察,其實vector結構的最明顯的一個優勢就是能夠動態分配大小,實時添加/刪除元素,這點是數組所不能實現的。雖然可以通過new操作符來實現數組的動態分配,但我們仍推薦大家在需要使用可動態變化的數組的場合,使用vector。   5、Vectot和vector   在編寫代碼是仔細留心編譯器給出的拼寫提示,會發現這樣一現象: ![](https://box.kancloud.cn/2016-02-25_56ce638687c31.png)   那么vector和Vector有什么區別呢?一句話,Vector是OpenCv中的vector,類似的還有String和string等。Vector和String這類結構是隸屬于OpenCv的: ![](https://box.kancloud.cn/2016-02-25_56ce63869d1c3.png)   OK,以上就是這次博文的所有內容,在接下來的博文中我們將開始進入MFC編程階段,歡迎大家討論:[http://blog.csdn.net/u013088062](http://blog.csdn.net/u013088062)。
                  <ruby id="bdb3f"></ruby>

                  <p id="bdb3f"><cite id="bdb3f"></cite></p>

                    <p id="bdb3f"><cite id="bdb3f"><th id="bdb3f"></th></cite></p><p id="bdb3f"></p>
                      <p id="bdb3f"><cite id="bdb3f"></cite></p>

                        <pre id="bdb3f"></pre>
                        <pre id="bdb3f"><del id="bdb3f"><thead id="bdb3f"></thead></del></pre>

                        <ruby id="bdb3f"><mark id="bdb3f"></mark></ruby><ruby id="bdb3f"></ruby>
                        <pre id="bdb3f"><pre id="bdb3f"><mark id="bdb3f"></mark></pre></pre><output id="bdb3f"></output><p id="bdb3f"></p><p id="bdb3f"></p>

                        <pre id="bdb3f"><del id="bdb3f"><progress id="bdb3f"></progress></del></pre>

                              <ruby id="bdb3f"></ruby>

                              哎呀哎呀视频在线观看