日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

机器学习 Softmax classifier (无隐含层)

發布時間:2025/7/25 编程问答 28 豆豆
生活随笔 收集整理的這篇文章主要介紹了 机器学习 Softmax classifier (无隐含层) 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

程序實現 Softmax classifer, 沒有隱含層,

f=wx+b

y=efijefj

%% Softmax classifierfunction Out=Softmax_Classifier(train_x, train_y, opts)% setting learning parameters step_size=opts.step_size; reg=opts.reg; batchsize = opts.batchsize; numepochs = opts.numepochs; K=opts.class; %% learn on the training set% initialize the parameters D=size(train_x, 2); W=0.01*randn(D,K); b=zeros(1,K);loss(1 : numepochs)=0;num_examples=size(train_x, 1); numbatches = num_examples / batchsize;for epoch=1:numepochs% % tic; % % % % sprintf('epoch %d: \n, ' , epoch)kk = randperm(num_examples);loss(epoch)=0;for bat=1:numbatchesbatch_x = train_x(kk((bat - 1) * batchsize + 1 : bat * batchsize), :);batch_y = train_y(kk((bat - 1) * batchsize + 1 : bat * batchsize), :);cc=repmat(b, batchsize , 1);scores=batch_x*W+cc;exp_scores=exp(scores);dd=repmat(sum(exp_scores, 2), 1, K);probs=exp_scores./dd;correct_logprobs=-log(sum(probs.*batch_y, 2));data_loss=sum(correct_logprobs)/batchsize;reg_loss=0.5*reg*sum(sum(W.*W));loss(epoch) =loss(epoch)+ data_loss + reg_loss;dscores = probs-batch_y;dscores=dscores/batchsize;dW=batch_x'*dscores;db=sum(dscores);dW=dW+reg*W;W=W-step_size*dW;b=b-step_size*db;endloss(epoch)=loss(epoch)/numbatches;if (mod(epoch, 10)==0)sprintf('epoch: %d, training loss is %f: \n', epoch, loss(epoch))end% % toc;endOut.W=W; Out.b=b; Out.loss=loss;end

轉載于:https://www.cnblogs.com/mtcnn/p/9412464.html

總結

以上是生活随笔為你收集整理的机器学习 Softmax classifier (无隐含层)的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。