日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

基于BP弱分类器用Adaboost的强分类器

發布時間:2025/4/16 编程问答 16 豆豆
生活随笔 收集整理的這篇文章主要介紹了 基于BP弱分类器用Adaboost的强分类器 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

1、模型的建立





詳細代碼:

<span style="font-size:18px;">%% 該代碼為基于BP_Adaboost的強預測器預測%% 清空環境變量 clc clear%% 下載數據 load data1 input output%% 權重初始化 k=rand(1,2000); [m,n]=sort(k);%訓練樣本 input_train=input(n(1:1900),:)'; output_train=output(n(1:1900),:)';%測試樣本 input_test=input(n(1901:2000),:)'; output_test=output(n(1901:2000),:)';%樣本權重 [mm,nn]=size(input_train); D(1,:)=ones(1,nn)/nn;%訓練樣本歸一化 [inputn,inputps]=mapminmax(input_train); [outputn,outputps]=mapminmax(output_train);K=10; for i=1:K%弱預測器訓練net=newff(inputn,outputn,5);net.trainParam.epochs=20;net.trainParam.lr=0.1;net=train(net,inputn,outputn);%弱預測器預測an1=sim(net,inputn);BPoutput=mapminmax('reverse',an1,outputps);%預測誤差erroryc(i,:)=output_train-BPoutput;%測試數據預測inputn1=mapminmax('apply',input_test,inputps);an2=sim(net,inputn1);test_simu(i,:)=mapminmax('reverse',an2,outputps);%調整D值Error(i)=0;for j=1:nnif abs(erroryc(i,j))>0.2 %較大誤差Error(i)=Error(i)+D(i,j);D(i+1,j)=D(i,j)*1.1;elseD(i+1,j)=D(i,j);endend%計算弱預測器權重at(i)=0.5/exp(abs(Error(i)));%D值歸一化D(i+1,:)=D(i+1,:)/sum(D(i+1,:));end%% 強預測器預測 at=at/sum(at);%% 結果統計 %強分離器效果 output=at*test_simu; error=output_test-output; plot(abs(error),'-*') hold on for i=1:8 error1(i,:)=test_simu(i,:)-output; end plot(mean(abs(error1)),'-or')title('強預測器預測誤差絕對值','fontsize',12) xlabel('預測樣本','fontsize',12) ylabel('誤差絕對值','fontsize',12) legend('強預測器預測','弱預測器預測')</span>
分類1 -1 ?代碼:

<span style="font-size:18px;">%% 該代碼為基于BP-Adaboost的強分類器分類%% 清空環境變量 clc clear%% 下載數據 load data input_train output_train input_test output_test%% 權重初始化 [mm,nn]=size(input_train); D(1,:)=ones(1,nn)/nn;%% 弱分類器分類 K=10; for i=1:K%訓練樣本歸一化[inputn,inputps]=mapminmax(input_train);[outputn,outputps]=mapminmax(output_train);error(i)=0;%BP神經網絡構建net=newff(inputn,outputn,6);net.trainParam.epochs=5;net.trainParam.lr=0.1;net.trainParam.goal=0.00004;%BP神經網絡訓練net=train(net,inputn,outputn);%訓練數據預測an1=sim(net,inputn);test_simu1(i,:)=mapminmax('reverse',an1,outputps);%測試數據預測inputn_test =mapminmax('apply',input_test,inputps);an=sim(net,inputn_test);test_simu(i,:)=mapminmax('reverse',an,outputps);%統計輸出效果kk1=find(test_simu1(i,:)>0);kk2=find(test_simu1(i,:)<0);aa(kk1)=1;aa(kk2)=-1;%統計錯誤樣本數for j=1:nnif aa(j)~=output_train(j);error(i)=error(i)+D(i,j);endend%弱分類器i權重at(i)=0.5*log((1-error(i))/error(i));%更新D值for j=1:nnD(i+1,j)=D(i,j)*exp(-at(i)*aa(j)*test_simu1(i,j));end%D值歸一化Dsum=sum(D(i+1,:));D(i+1,:)=D(i+1,:)/Dsum;end%% 強分類器分類結果 output=sign(at*test_simu);%% 分類結果統計 %統計強分類器每類分類錯誤個數 kkk1=0; kkk2=0; for j=1:350if output(j)==1if output(j)~=output_test(j)kkk1=kkk1+1;endendif output(j)==-1if output(j)~=output_test(j)kkk2=kkk2+1;endend endkkk1 kkk2 disp('第一類分類錯誤 第二類分類錯誤 總錯誤'); % 窗口顯示 disp([kkk1 kkk2 kkk1+kkk2]);plot(output) hold on plot(output_test,'g')%統計弱分離器效果 for i=1:Kerror1(i)=0;kk1=find(test_simu(i,:)>0);kk2=find(test_simu(i,:)<0);aa(kk1)=1;aa(kk2)=-1;for j=1:350if aa(j)~=output_test(j);error1(i)=error1(i)+1;endend end disp('統計弱分類器分類效果'); error1disp('強分類器分類誤差率') (kkk1+kkk2)/350disp('弱分類器分類誤差率') (sum(error1)/(K*350)) </span>

總結

以上是生活随笔為你收集整理的基于BP弱分类器用Adaboost的强分类器的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。