日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

SVM+HOG:用初次训练的.xml分类器在负样本原图上检测生成HardExample样本

發(fā)布時間:2025/3/21 编程问答 50 豆豆
生活随笔 收集整理的這篇文章主要介紹了 SVM+HOG:用初次训练的.xml分类器在负样本原图上检测生成HardExample样本 小編覺得挺不錯的,現(xiàn)在分享給大家,幫大家做個參考.
難例(或叫做難樣本,Hard Example,Hard Negative,Hard Instance)是指利用第一次訓(xùn)練的 分類器在負(fù)樣本原圖(肯定沒有人體)上進(jìn)行行人檢測時所有檢測到的矩形框,這些矩形框區(qū)域很明顯都是誤報 ,“把這些誤報的矩形框保存為圖片”,這些誤檢的圖片就是HardExample圖片。把HardExample圖片加入到初始的負(fù)樣本集合中,重新進(jìn)行SVM的訓(xùn)練,可顯著減少誤報。

上圖中將樹干誤認(rèn)為是人體,這些就是Hard Example,將這些矩形框保存為64*128的圖片文件,加入到負(fù)樣本集合中。也就是說,難例就是分錯類的負(fù)樣本,將難例加入負(fù)樣本集合進(jìn)行二次訓(xùn)練就是告訴分類器:“這些是你上次分錯類的,要吸取教訓(xùn),改正錯誤” 創(chuàng)建負(fù)樣本描述文件negatives.txt,注意刪除.txt行 準(zhǔn)備工作: ifstream fin("F:\\INRIAPerson\\INRIAPerson\\train_64x128_H96\\neg\\negatives.txt");//打開原始負(fù)樣本圖片文件的路徑 svm.load("SVM_HOG_1500PosINRIA_2000Neg.xml");//從XML文件讀取訓(xùn)練好的SVM模型 sprintf(saveName,"F:\\dataset\\HardExample\\%06d.jpg",++CropImageCount);//生成裁剪出的負(fù)樣本圖片的文件名 #include <iostream> #include <fstream> #include <opencv2/core/core.hpp> #include <opencv2/highgui/highgui.hpp> #include <opencv2/imgproc/imgproc.hpp> #include <opencv2/objdetect/objdetect.hpp> #include <opencv2/ml/ml.hpp> using namespace std; using namespace cv; class MySVM : public CvSVM { public: //獲得SVM的決策函數(shù)中的alpha數(shù)組 double * get_alpha_vector() { return this->decision_func->alpha; } //獲得SVM的決策函數(shù)中的rho參數(shù),即偏移量 float get_rho() { return this->decision_func->rho; } }; char saveName[256];//裁剪出來的負(fù)樣本圖片文件名 int CropImageCount; string ImgName; ifstream fin("F:\\INRIAPerson\\INRIAPerson\\train_64x128_H96\\neg\\negatives.txt");//打開原始負(fù)樣本圖片文件的路徑 int pic_Num = 0; // 處理了多少張圖像 int main() {//檢測窗口(64,128),塊尺寸(16,16),塊步長(8,8),cell尺寸(8,8),直方圖bin個數(shù)9 HOGDescriptor hog(Size(64,128),Size(16,16),Size(8,8),Size(8,8),9);//HOG檢測器,用來計算HOG描述子的 int DescriptorDim;//HOG描述子的維數(shù),由圖片大小、檢測窗口大小、塊大小、細(xì)胞單元中直方圖bin個數(shù)決定 MySVM svm;//SVM分類器 svm.load("SVM_HOG_1500PosINRIA_2000Neg.xml");//從XML文件讀取訓(xùn)練好的SVM模型 /************************************************************************************************* 線性SVM訓(xùn)練完成后得到的XML文件里面,有一個數(shù)組,叫做support vector,還有一個數(shù)組,叫做alpha,有一個浮點數(shù),叫做rho; 將alpha矩陣同support vector相乘,注意,alpha*supportVector,將得到一個列向量。之后,再該列向量的最后添加一個元素rho。 如此,變得到了一個分類器,利用該分類器,直接替換opencv中行人檢測默認(rèn)的那個分類器(cv::HOGDescriptor::setSVMDetector()), 就可以利用你的訓(xùn)練樣本訓(xùn)練出來的分類器進(jìn)行行人檢測了。 ***************************************************************************************************/ DescriptorDim = svm.get_var_count();//特征向量的維數(shù),即HOG描述子的維數(shù) int supportVectorNum = svm.get_support_vector_count();//支持向量的個數(shù) cout<<"支持向量個數(shù):"<<supportVectorNum<<endl; Mat alphaMat = Mat::zeros(1, supportVectorNum, CV_32FC1);//alpha向量,長度等于支持向量個數(shù) Mat supportVectorMat = Mat::zeros(supportVectorNum, DescriptorDim, CV_32FC1);//支持向量矩陣 Mat resultMat = Mat::zeros(1, DescriptorDim, CV_32FC1);//alpha向量乘以支持向量矩陣的結(jié)果 //將支持向量的數(shù)據(jù)復(fù)制到supportVectorMat矩陣中 for(int i=0; i<supportVectorNum; i++) { const float * pSVData = svm.get_support_vector(i);//返回第i個支持向量的數(shù)據(jù)指針 for(int j=0; j<DescriptorDim; j++) { supportVectorMat.at<float>(i,j) = pSVData[j]; } } //將alpha向量的數(shù)據(jù)復(fù)制到alphaMat中 double * pAlphaData = svm.get_alpha_vector();//返回SVM的決策函數(shù)中的alpha向量 for(int i=0; i<supportVectorNum; i++) { alphaMat.at<float>(0,i) = pAlphaData[i]; } //計算-(alphaMat * supportVectorMat),結(jié)果放到resultMat中 //gemm(alphaMat, supportVectorMat, -1, 0, 1, resultMat);//不知道為什么加負(fù)號? resultMat = -1 * alphaMat * supportVectorMat; //得到最終的setSVMDetector(const vector<float>& detector)參數(shù)中可用的檢測子 vector<float> myDetector; //將resultMat中的數(shù)據(jù)復(fù)制到數(shù)組myDetector中 for(int i=0; i<DescriptorDim; i++) { myDetector.push_back(resultMat.at<float>(0,i)); } //最后添加偏移量rho,得到檢測子 myDetector.push_back(svm.get_rho()); cout<<"檢測子維數(shù):"<<myDetector.size()<<endl; //設(shè)置HOGDescriptor的檢測子 HOGDescriptor myHOG; myHOG.setSVMDetector(myDetector); //myHOG.setSVMDetector(HOGDescriptor::getDefaultPeopleDetector()); //保存檢測子參數(shù)到文件 ofstream fout("HOGDetectorForOpenCV.txt"); for(int i=0; i<myDetector.size(); i++) { fout<<myDetector[i]<<endl; } while(getline(fin,ImgName)) { cout<<"處理:"<<ImgName<<" "<<pic_Num++<<endl; /**************讀入圖片進(jìn)行HOG行人檢測******************/ Mat src = imread(ImgName); if(src.empty()){continue;}Mat T;src.copyTo(T);vector<Rect> found, found_filtered;//矩形框數(shù)組 //cout<<"進(jìn)行多尺度HOG人體檢測"<<endl; myHOG.detectMultiScale(src, found, 0, Size(8,8), Size(32,32), 1.05, 2);//對圖片進(jìn)行多尺度行人檢測 //cout<<"找到的矩形框個數(shù):"<<found.size()<<endl; //找出所有沒有嵌套的矩形框r,并放入found_filtered中,如果有嵌套的話,則取外面最大的那個矩形框放入found_filtered中 for(int i=0; i < found.size(); i++) { Rect r = found[i]; int j=0; for(; j < found.size(); j++) if(j != i && (r & found[j]) == r) break; if( j == found.size()) found_filtered.push_back(r); } //畫矩形框,因為hog檢測出的矩形框比實際人體框要稍微大些,所以這里需要做一些調(diào)整 for(int i=0; i<found_filtered.size(); i++) { Rect r = found_filtered[i]; //begin:自己添加的代碼if(r.x>src.cols || r.x<0)continue;if(r.y>src.rows || r.y<0)continue;if(r.x+r.width>src.cols || r.x+r.width<0)continue;if(r.y+r.height>src.rows || r.y+r.height<0)continue;//endr.x = r.x+cvRound(r.width*0.1); r.width = cvRound(r.width*0.8); r.y = r.y+cvRound(r.height*0.07); r.height = cvRound(r.height*0.8); //rectangle(src, r.tl(), r.br(), Scalar(0,255,0), 3); //畫出矩陣if(r.x>src.cols||r.x<0||r.y>src.rows || r.y<0||r.x+r.width>src.cols || r.x+r.width<0||r.y+r.height>src.rows || r.y+r.height<0)continue;//截圖Rect tmp(r);Mat dst = src(tmp);resize(dst,dst,Size(64,128));sprintf(saveName,"F:\\dataset\\HardExample\\%06d.jpg",++CropImageCount);//生成裁剪出的負(fù)樣本圖片的文件名 imwrite(saveName, dst);//保存文件 } }system("pause"); }

注意:采取HardExample圖片之后,保存的圖片都調(diào)整成64X128大小的。

總結(jié)

以上是生活随笔為你收集整理的SVM+HOG:用初次训练的.xml分类器在负样本原图上检测生成HardExample样本的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯,歡迎將生活随笔推薦給好友。