日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

UFLDL教程: Exercise: Implement deep networks for digit classification

發(fā)布時(shí)間:2023/12/13 编程问答 29 豆豆
生活随笔 收集整理的這篇文章主要介紹了 UFLDL教程: Exercise: Implement deep networks for digit classification 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

Deep networks


Deep Learning and Unsupervised Feature Learning Tutorial Solutions

深度網(wǎng)絡(luò)的優(yōu)勢(shì)

  • 比單層神經(jīng)網(wǎng)絡(luò)能學(xué)習(xí)到更復(fù)雜的表達(dá)。
  • 不同層的網(wǎng)絡(luò)學(xué)習(xí)到的特征是由最底層到最高層慢慢上升的。比如在圖像的學(xué)習(xí)中,第一個(gè)隱含層網(wǎng)絡(luò)可能學(xué)習(xí)的是邊緣特征,第二隱含層就學(xué)習(xí)到的是輪廓特征,后面的就會(huì)更高級(jí),有可能是圖像目標(biāo)中的一個(gè)部位。也就是說底層隱含層學(xué)習(xí)底層特征,高層隱含層學(xué)習(xí)高層特征。
  • 訓(xùn)練深度網(wǎng)絡(luò)的困難

    1. 數(shù)據(jù)獲取問題

    需要依賴于有標(biāo)簽的數(shù)據(jù)才能進(jìn)行訓(xùn)練。然而有標(biāo)簽的數(shù)據(jù)通常是稀缺的,因此對(duì)于許多問題,我們很難獲得足夠多的樣本來擬合一個(gè)復(fù)雜模型的參數(shù)。考慮到深度網(wǎng)絡(luò)具有強(qiáng)大的表達(dá)能力,在不充足的數(shù)據(jù)上進(jìn)行訓(xùn)練將會(huì)導(dǎo)致過擬合。

    2. 局部極值問題

    使用監(jiān)督學(xué)習(xí)方法來對(duì)淺層網(wǎng)絡(luò)(只有一個(gè)隱藏層)進(jìn)行訓(xùn)練通常能夠使參數(shù)收斂到合理的范圍內(nèi). 使用監(jiān)督學(xué)習(xí)方法訓(xùn)練神經(jīng)網(wǎng)絡(luò)時(shí),通常會(huì)涉及到求解一個(gè)高度非凸的優(yōu)化問題(例如最小化訓(xùn)練誤差 ,其中參數(shù) 是要優(yōu)化的參數(shù)。對(duì)深度網(wǎng)絡(luò)而言,這種非凸優(yōu)化問題的搜索區(qū)域中充斥著大量“壞”的局部極值,因而使用梯度下降法(或者像共軛梯度下降法,L-BFGS等方法)效果并不好。

    3. 梯度彌散問題

    梯度下降法(以及相關(guān)的L-BFGS算法等)在使用隨機(jī)初始化權(quán)重的深度網(wǎng)絡(luò)上效果不好的技術(shù)原因是:梯度會(huì)變得非常小。具體而言,當(dāng)使用反向傳播方法計(jì)算導(dǎo)數(shù)的時(shí)候,隨著網(wǎng)絡(luò)的深度的增加,反向傳播的梯度(從輸出層到網(wǎng)絡(luò)的最初幾層)的幅度值會(huì)急劇地減小。結(jié)果就造成了整體的損失函數(shù)相對(duì)于最初幾層的權(quán)重的導(dǎo)數(shù)非常小。這樣,當(dāng)使用梯度下降法的時(shí)候,最初幾層的權(quán)重變化非常緩慢,以至于它們不能夠從樣本中進(jìn)行有效的學(xué)習(xí)。這種問題通常被稱為“梯度的彌散”.

    與梯度彌散問題緊密相關(guān)的問題是:當(dāng)神經(jīng)網(wǎng)絡(luò)中的最后幾層含有足夠數(shù)量神經(jīng)元的時(shí)候,可能單獨(dú)這幾層就足以對(duì)有標(biāo)簽數(shù)據(jù)進(jìn)行建模,而不用最初幾層的幫助,也就是說無法起到對(duì)網(wǎng)絡(luò)的前幾層結(jié)構(gòu)起到學(xué)習(xí)的作用。
    因此,對(duì)所有層都使用隨機(jī)初始化的方法訓(xùn)練得到的整個(gè)網(wǎng)絡(luò)的性能將會(huì)與訓(xùn)練得到的淺層網(wǎng)絡(luò)(僅由深度網(wǎng)絡(luò)的最后幾層組成的淺層網(wǎng)絡(luò))的性能相似。


    逐層貪婪訓(xùn)練方法


    逐層貪婪算法的主要思路

  • 每次只訓(xùn)練網(wǎng)絡(luò)中的一層,即我們首先訓(xùn)練一個(gè)只含一個(gè)隱藏層的網(wǎng)絡(luò),僅當(dāng)這層網(wǎng)絡(luò)訓(xùn)練結(jié)束之后才開始訓(xùn)練一個(gè)有兩個(gè)隱藏層的網(wǎng)絡(luò),以此類推。
  • 在每一步中,我們把已經(jīng)訓(xùn)練好的前 k-1 層固定,然后增加第 k 層(也就是將我們已經(jīng)訓(xùn)練好的前 k-1 的輸出作為輸入)。每一層的訓(xùn)練可以是有監(jiān)督的(例如,將每一步的分類誤差作為目標(biāo)函數(shù)),但更通常使用無監(jiān)督方法(例如自動(dòng)編碼器)。
  • 這些各層單獨(dú)訓(xùn)練所得到的權(quán)重被用來初始化最終(或者說全部)的深度網(wǎng)絡(luò)的權(quán)重,然后對(duì)整個(gè)網(wǎng)絡(luò)進(jìn)行“微調(diào)”(即把所有層放在一起來優(yōu)化有標(biāo)簽訓(xùn)練集上的訓(xùn)練誤差).
  • 逐層貪婪的訓(xùn)練方法優(yōu)勢(shì)

    1. 數(shù)據(jù)獲取

    雖然獲取有標(biāo)簽數(shù)據(jù)的代價(jià)是昂貴的,但獲取大量的無標(biāo)簽數(shù)據(jù)是容易的。
    自學(xué)習(xí)方法(self-taught learning)的潛力在于它能通過使用大量的無標(biāo)簽數(shù)據(jù)來學(xué)習(xí)到更好的模型。
    具體而言,該方法使用無標(biāo)簽數(shù)據(jù)來學(xué)習(xí)得到所有層(不包括用于預(yù)測標(biāo)簽的最終分類層) 的最佳初始權(quán)重。相比純監(jiān)督學(xué)習(xí)方法,這種自學(xué)習(xí)方法能夠利用多得多的數(shù)據(jù),并且能夠?qū)W習(xí)和發(fā)現(xiàn)數(shù)據(jù)中存在的模式。

    2. 更好的局部極值

    當(dāng)用無標(biāo)簽數(shù)據(jù)訓(xùn)練完網(wǎng)絡(luò)后,相比于隨機(jī)初始化而言,各層初始權(quán)重會(huì)位于參數(shù)空間中較好的位置上。然后我們可以從這些位置出發(fā)進(jìn)一步微調(diào)權(quán)重。
    從經(jīng)驗(yàn)上來說,以這些位置為起點(diǎn)開始梯度下降更有可能收斂到比較好的局部極值點(diǎn),這是因?yàn)?strong>無標(biāo)簽數(shù)據(jù)已經(jīng)提供了大量輸入數(shù)據(jù)中包含的模式的先驗(yàn)信息。 所以此時(shí)的參數(shù)初始化值一般都能得到最終比較好的局部最優(yōu)解。


    備注

    當(dāng)訓(xùn)練深度網(wǎng)絡(luò)的時(shí)候,每一層隱層應(yīng)該使用非線性的激活函數(shù) f(x)。這是因?yàn)槎鄬拥木€性函數(shù)組合在一起本質(zhì)上也只有線性函數(shù)的表達(dá)能力(例如,將多個(gè)線性方程組合在一起僅僅產(chǎn)生另一個(gè)線性方程)。因此,在激活函數(shù)是線性的情況下,相比于單隱藏層神經(jīng)網(wǎng)絡(luò),包含多隱藏層的深度網(wǎng)絡(luò)并沒有增加表達(dá)能力。


    從自我學(xué)習(xí)到深層網(wǎng)絡(luò)


    預(yù)訓(xùn)練與微調(diào)

    預(yù)訓(xùn)練(pre-training):在訓(xùn)練獲得模型最初參數(shù)(利用自動(dòng)編碼器訓(xùn)練第一層,利用 logistic/softmax 回歸訓(xùn)練第二層);

    微調(diào)(fine-tune):我們可以進(jìn)一步修正模型參數(shù),進(jìn)而降低訓(xùn)練誤差。

    在什么時(shí)候應(yīng)用微調(diào)?

    通常僅在有大量已標(biāo)注訓(xùn)練數(shù)據(jù)的情況下使用。在這樣的情況下,微調(diào)能顯著提升分類器性能。
    然而,如果有大量未標(biāo)注數(shù)據(jù)集(用于非監(jiān)督特征學(xué)習(xí)/預(yù)訓(xùn)練),卻只有相對(duì)較少的已標(biāo)注訓(xùn)練集,微調(diào)的作用非常有限。 這時(shí)可用Self-Taught Learning_Exercise(斯坦福大學(xué)深度學(xué)習(xí)教程UFLDL)中介紹的方法。


    實(shí)驗(yàn)內(nèi)容


    Exercise: Implement deep networks for digit classification。利用深度網(wǎng)絡(luò)完成MNIST手寫數(shù)字?jǐn)?shù)據(jù)庫中手寫數(shù)字的識(shí)別。

    用6萬個(gè)已標(biāo)注數(shù)據(jù)(即:6萬張28*28的圖像塊(patches)),作為訓(xùn)練數(shù)據(jù)集,然后把它輸入到棧式自編碼器中,它的第一層自編碼器提取出訓(xùn)練數(shù)據(jù)集的一階特征,接著把這個(gè)一階特征輸入到第二層自編碼器中提取出二階特征,然后把把這個(gè)二階特征輸入到softmax分類器,再用原始數(shù)據(jù)的標(biāo)簽和二階特征來訓(xùn)練softmax分類器,最后利用BP算法對(duì)整個(gè)網(wǎng)絡(luò)的權(quán)重值進(jìn)行微調(diào)以更好地學(xué)習(xí)數(shù)據(jù),
    再用1萬個(gè)已標(biāo)注數(shù)據(jù)(即:1萬張28*28的圖像塊(patches))作為測試數(shù)據(jù)集,用前面訓(xùn)練好的softmax分類器對(duì)測試數(shù)據(jù)集進(jìn)行分類,并計(jì)算分類的正確率。本節(jié)整個(gè)網(wǎng)絡(luò)結(jié)構(gòu)如下:

    實(shí)驗(yàn)步驟

    1.初始化參數(shù),加載MNIST手寫數(shù)字?jǐn)?shù)據(jù)庫。
    2.利用訓(xùn)練樣本集訓(xùn)練第一個(gè)稀疏編碼器,得到它的權(quán)重參數(shù)值sae1OptTheta,通過sae1OptTheta可得到原始數(shù)據(jù)的一階特征sae1Features。
    3.利用一階特征sae1Features訓(xùn)練第二個(gè)自編碼器,得到它的權(quán)重參數(shù)值sae2OptTheta,通過sae2OptTheta可得到原始數(shù)據(jù)的二階特征sae2Features。
    4.利用二階特征sae2Features和原始數(shù)據(jù)的標(biāo)簽來訓(xùn)練softmax分類器,得到softmax分類器的權(quán)重參數(shù)saeSoftmaxOptTheta。
    5.利用誤差反向傳播進(jìn)行微調(diào),利用前面得到的所有權(quán)重參數(shù)sae1OptTheta、sae2OptTheta、saeSoftmaxOptTheta,得到微調(diào)前整個(gè)網(wǎng)絡(luò)的權(quán)重參數(shù)stackedAETheta,然后在利用原始數(shù)據(jù)及其標(biāo)簽的基礎(chǔ)上通過BP算法對(duì)stackedAETheta進(jìn)行微調(diào),得到微調(diào)后的整個(gè)網(wǎng)絡(luò)的權(quán)重參數(shù)stackedAEOptTheta。
    6.利用測試樣本集對(duì)得到的分類器進(jìn)行精度測試.通過微調(diào)前整個(gè)網(wǎng)絡(luò)的權(quán)重參數(shù)stackedAETheta和微調(diào)后的整個(gè)網(wǎng)絡(luò)的權(quán)重參數(shù)stackedAEOptTheta,分別對(duì)測試數(shù)據(jù)進(jìn)行分類,得到兩者的分類準(zhǔn)確率。

    stackedAEExercise.m

    %% CS294A/CS294W Stacked Autoencoder Exercise% Instructions % ------------ % % This file contains code that helps you get started on the % sstacked autoencoder exercise. You will need to complete code in % stackedAECost.m % You will also need to have implemented sparseAutoencoderCost.m and % softmaxCost.m from previous exercises. You will need the initializeParameters.m % loadMNISTImages.m, and loadMNISTLabels.m files from previous exercises. % % For the purpose of completing the assignment, you do not need to % change the code in this file. % %%====================================================================== %% STEP 0: Here we provide the relevant parameters values that will % allow your sparse autoencoder to get good filters; you do not need to % change the parameters below.%設(shè)置多層自編碼器的相關(guān)參數(shù)% 整個(gè)網(wǎng)絡(luò)的輸入輸出結(jié)構(gòu) inputSize = 28 * 28; numClasses = 10;% 稀疏自編碼器結(jié)構(gòu)hiddenSizeL1 = 200; % Layer 1 Hidden Size hiddenSizeL2 = 200; % Layer 2 Hidden Size sparsityParam = 0.1; % desired average activation of the hidden units.% (This was denoted by the Greek alphabet rho, which looks like a lower-case "p", % 一些權(quán)值 % in the lecture notes). lambda = 3e-3; % weight decay parameter beta = 3; % weight of sparsity penalty term %%====================================================================== %% STEP 1: Load data from the MNIST database %載入MNSIT數(shù)據(jù)集及標(biāo)簽集 % This loads our training data from the MNIST database files.% Load MNIST database files DISPLAY = true;addpath mnist/ trainData = loadMNISTImages('mnist/train-images.idx3-ubyte'); trainLabels = loadMNISTLabels('mnist/train-labels.idx1-ubyte');trainLabels(trainLabels == 0) = 10; % Remap 0 to 10 since our labels need to start from 1%%====================================================================== %% STEP 2: Train the first sparse autoencoder % This trains the first sparse autoencoder on the unlabelled STL training % images. % If you've correctly implemented sparseAutoencoderCost.m, you don't need % to change anything here.%訓(xùn)練第一個(gè)稀疏自編碼器(訓(xùn)練樣本集為trainData,看作是無標(biāo)簽訓(xùn)練樣本集)% Randomly initialize the parameters sae1Theta = initializeParameters(hiddenSizeL1, inputSize);%% ---------------------- YOUR CODE HERE --------------------------------- % Instructions: Train the first layer sparse autoencoder, this layer has % an hidden size of "hiddenSizeL1" % You should store the optimal parameters in sae1OptTheta% 利用無標(biāo)簽樣本集對(duì)稀疏自編碼器進(jìn)行學(xué)習(xí),學(xué)習(xí)到的參數(shù)存放在向量sae1OptTheta中 % 優(yōu)化函數(shù)的一些參數(shù)設(shè)置addpath minFunc/; options = struct; options.Method = 'lbfgs'; options.maxIter = 400; options.display = 'on';% 調(diào)用優(yōu)化函數(shù),得到優(yōu)化向量sae1OptTheta [sae1OptTheta, cost] = minFunc(@(p)sparseAutoencoderCost(p,...inputSize,hiddenSizeL1,lambda,sparsityParam,beta,trainData),sae1Theta,options);%訓(xùn)練出第一層網(wǎng)絡(luò)的參數(shù)%輸入維數(shù)、輸出維數(shù) save('saves/step2.mat', 'sae1OptTheta');if DISPLAYW1 = reshape(sae1OptTheta(1:hiddenSizeL1 * inputSize), hiddenSizeL1, inputSize);display_network(W1'); end% -------------------------------------------------------------------------%%====================================================================== %% STEP 2: Train the second sparse autoencoder訓(xùn)練第二個(gè)稀疏自編碼器(訓(xùn)練數(shù)據(jù)是第一個(gè)自編碼器提取到的特征) % This trains the second sparse autoencoder on the first autoencoder % featurse. % If you've correctly implemented sparseAutoencoderCost.m, you don't need % to change anything here.% 利用第一個(gè)稀疏自編碼器的權(quán)重參數(shù)sae1OptTheta,得到輸入數(shù)據(jù)的一階特征表示 % 求解第一個(gè)自編碼器的輸出sae1Features(維數(shù)為hiddenSizeL1) [sae1Features] = feedForwardAutoencoder(sae1OptTheta, hiddenSizeL1, ...inputSize, trainData);% Randomly initialize the parameters sae2Theta = initializeParameters(hiddenSizeL2, hiddenSizeL1);%% ---------------------- YOUR CODE HERE --------------------------------- % Instructions: Train the second layer sparse autoencoder, this layer has % an hidden size of "hiddenSizeL2" and an inputsize of % "hiddenSizeL1" % % You should store the optimal parameters in sae2OptTheta% 開始訓(xùn)練第二個(gè)自編碼器,輸入維數(shù)是hiddenSizeL1,輸出維數(shù)是hiddenSizeL2,優(yōu)化向量存放在sae2OptTheta中 [sae2OptTheta, cost] = minFunc(@(p)sparseAutoencoderCost(p,...hiddenSizeL1,hiddenSizeL2,lambda,sparsityParam,beta,sae1Features),sae2Theta,options);%訓(xùn)練出第二層網(wǎng)絡(luò)的參數(shù) save('saves/step3.mat', 'sae2OptTheta');figure; if DISPLAYW11 = reshape(sae1OptTheta(1:hiddenSizeL1 * inputSize), hiddenSizeL1, inputSize);W12 = reshape(sae2OptTheta(1:hiddenSizeL2 * hiddenSizeL1), hiddenSizeL2, hiddenSizeL1);% TODO(zellyn): figure out how to display a 2-level network % display_network(log(W11' ./ (1-W11')) * W12'); % W12_temp = W12(1:196,1:196); % display_network(W12_temp'); % figure; % display_network(W12_temp'); end% -------------------------------------------------------------------------%%====================================================================== %% STEP 3: Train the softmax classifier%用二階特征訓(xùn)練softmax分類器 %訓(xùn)練softmax classifier(它的輸入為第二個(gè)自編碼器提取到的特征sae2Features) % This trains the sparse autoencoder on the second autoencoder features. % If you've correctly implemented softmaxCost.m, you don't need % to change anything here.% 利用第二個(gè)稀疏自編碼器的權(quán)重參數(shù)sae2OptTheta,得到輸入數(shù)據(jù)的二階特征表示 % 求解第二個(gè)自編碼器的輸出sae1Features(維數(shù)為hiddenSizeL2) [sae2Features] = feedForwardAutoencoder(sae2OptTheta, hiddenSizeL2, ...hiddenSizeL1, sae1Features);% Randomly initialize the parameters saeSoftmaxTheta = 0.005 * randn(hiddenSizeL2 * numClasses, 1);%% ---------------------- YOUR CODE HERE --------------------------------- % Instructions: Train the softmax classifier, the classifier takes in % input of dimension "hiddenSizeL2" corresponding to the % hidden layer size of the 2nd layer. % % You should store the optimal parameters in saeSoftmaxOptTheta % % NOTE: If you used softmaxTrain to complete this part of the exercise, % set saeSoftmaxOptTheta = softmaxModel.optTheta(:);% 開始優(yōu)化softmax classifier,得到優(yōu)化向量softmaxLambda = 1e-4; numClasses = 10; softoptions = struct; softoptions.maxIter = 400; softmaxModel = softmaxTrain(hiddenSizeL2,numClasses,softmaxLambda,...sae2Features,trainLabels,softoptions); saeSoftmaxOptTheta = softmaxModel.optTheta(:);%得到softmax分類器的權(quán)重參數(shù)save('saves/step4.mat', 'saeSoftmaxOptTheta');% -------------------------------------------------------------------------%%====================================================================== %% STEP 5: Finetune softmax model微調(diào)多層自編碼器% Implement the stackedAECost to give the combined cost of the whole model % then run this cell.% 利用稀疏自編碼(stack)和softmax分類器(saeSoftmaxOptTheta)學(xué)習(xí)到的參數(shù)作為微調(diào)模型的初始值 % 稀疏自編碼的參數(shù)stack% Initialize the stack using the parameters learned stack = cell(2,1);%存放稀疏自編碼器參數(shù)的元胞 stack{1}.w = reshape(sae1OptTheta(1:hiddenSizeL1*inputSize), ...hiddenSizeL1, inputSize); stack{1}.b = sae1OptTheta(2*hiddenSizeL1*inputSize+1:2*hiddenSizeL1*inputSize+hiddenSizeL1); stack{2}.w = reshape(sae2OptTheta(1:hiddenSizeL2*hiddenSizeL1), ...hiddenSizeL2, hiddenSizeL1); stack{2}.b = sae2OptTheta(2*hiddenSizeL2*hiddenSizeL1+1:2*hiddenSizeL2*hiddenSizeL1+hiddenSizeL2);% Initialize the parameters for the deep model [stackparams, netconfig] = stack2params(stack);%所有stack轉(zhuǎn)化為向量形式,并提取稀疏自編碼器的結(jié)構(gòu)% 整個(gè)模型參數(shù)(saeSoftmaxOptTheta+stack) stackedAETheta = [ saeSoftmaxOptTheta ; stackparams ];%% ---------------------- YOUR CODE HERE --------------------------------- % Instructions: Train the deep network, hidden size here refers to the ' % dimension of the input to the classifier, which corresponds % to "hiddenSizeL2". % % % 用BP算法微調(diào),得到微調(diào)后的整個(gè)網(wǎng)絡(luò)參數(shù)stackedAEOptTheta[stackedAEOptTheta, cost] = minFunc(@(p)stackedAECost(p,inputSize,hiddenSizeL2,...numClasses, netconfig,lambda, trainData, trainLabels),...stackedAETheta,options);%訓(xùn)練出第三層網(wǎng)絡(luò)的參數(shù) save('saves/step5.mat', 'stackedAEOptTheta');figure; if DISPLAYoptStack = params2stack(stackedAEOptTheta(hiddenSizeL2*numClasses+1:end), netconfig);W11 = optStack{1}.w;W12 = optStack{2}.w;% TODO(zellyn): figure out how to display a 2-level network% display_network(log(1 ./ (1-W11')) * W12'); end% -------------------------------------------------------------------------%%====================================================================== %% STEP 6: Test % Instructions: You will need to complete the code in stackedAEPredict.m % before running this part of the code %% Get labelled test images % Note that we apply the same kind of preprocessing as the training set% 獲取有標(biāo)簽樣本集 testData = loadMNISTImages('mnist/t10k-images-idx3-ubyte'); testLabels = loadMNISTLabels('mnist/t10k-labels-idx1-ubyte');testLabels(testLabels == 0) = 10; % Remap 0 to 10% 進(jìn)行預(yù)測(微調(diào)前的) [pred] = stackedAEPredict(stackedAETheta, inputSize, hiddenSizeL2, ...numClasses, netconfig, testData);acc = mean(testLabels(:) == pred(:));% 計(jì)算預(yù)測精度 fprintf('Before Finetuning Test Accuracy: %0.3f%%\n', acc * 100);% 進(jìn)行預(yù)測(微調(diào)后的) [pred] = stackedAEPredict(stackedAEOptTheta, inputSize, hiddenSizeL2, ...numClasses, netconfig, testData);acc = mean(testLabels(:) == pred(:));% 計(jì)算預(yù)測精度 fprintf('After Finetuning Test Accuracy: %0.3f%%\n', acc * 100);% Accuracy is the proportion of correctly classified images % The results for our implementation were: % % Before Finetuning Test Accuracy: 87.7% % After Finetuning Test Accuracy: 97.6% % % If your values are too low (accuracy less than 95%), you should check % your code for errors, and make sure you are training on the % entire data set of 60000 28x28 training images % (unless you modified the loading code, this should be the case)

    stackedAECost.m

    function [ cost, grad ] = stackedAECost(theta, inputSize, hiddenSize, ...numClasses, netconfig, ...lambda, data, labels)% stackedAECost: Takes a trained softmaxTheta and a training data set with labels, % and returns cost and gradient using a stacked autoencoder model. Used for % finetuning.% 計(jì)算整個(gè)模型的代價(jià)函數(shù)及其梯度 % 注意:完成這個(gè)函數(shù)后最好用checkStackedAECost函數(shù)檢查梯度計(jì)算是否正確 % theta: trained weights from the autoencoder整個(gè)網(wǎng)絡(luò)的權(quán)值向量 % visibleSize: the number of input units網(wǎng)絡(luò)的輸入層維數(shù) % hiddenSize: the number of hidden units *at the 2nd layer*最后一個(gè)稀疏自編碼器的隱藏層維數(shù) % numClasses: the number of categories類別總數(shù) % netconfig: the network configuration of the stack % lambda: the weight regularization penalty % data: Our matrix containing the training data as columns. So, data(:,i) is the i-th training example. 訓(xùn)練樣本集 % labels: A vector containing labels, where labels(i) is the label for the訓(xùn)練樣本集的標(biāo)簽 % i-th training example%% Unroll softmaxTheta parameter% We first extract the part which compute the softmax gradient softmaxTheta = reshape(theta(1:hiddenSize*numClasses), numClasses, hiddenSize);% Extract out the "stack" stack = params2stack(theta(hiddenSize*numClasses+1:end), netconfig);% You will need to compute the following gradients softmaxThetaGrad = zeros(size(softmaxTheta)); stackgrad = cell(size(stack)); for d = 1:numel(stack)stackgradozvdkddzhkzd.w = zeros(size(stackozvdkddzhkzd.w));stackgradozvdkddzhkzd.b = zeros(size(stackozvdkddzhkzd.b)); endcost = 0; % You need to compute this% You might find these variables useful M = size(data, 2); groundTruth = full(sparse(labels, 1:M, 1));%% --------------------------- YOUR CODE HERE ----------------------------- % Instructions: Compute the cost function and gradient vector for % the stacked autoencoder. % % You are given a stack variable which is a cell-array of % the weights and biases for every layer. In particular, you % can refer to the weights of Layer d, using stackozvdkddzhkzd.w and % the biases using stackozvdkddzhkzd.b . To get the total number of % layers, you can use numel(stack). % % The last layer of the network is connected to the softmax % classification layer, softmaxTheta. % % You should compute the gradients for the softmaxTheta, % storing that in softmaxThetaGrad. Similarly, you should % compute the gradients for each layer in the stack, storing % the gradients in stackgradozvdkddzhkzd.w and stackgradozvdkddzhkzd.b % Note that the size of the matrices in stackgrad should % match exactly that of the size of the matrices in stack. %depth = size(stack, 1); % 隱藏層的數(shù)量 a = cell(depth+1, 1); % 輸入層和隱藏層的輸出值,即:輸入層的輸出值和隱藏層的激活值 a{1} = data; % 輸入層的輸出值 Jweight = 0; % 權(quán)重懲罰項(xiàng) m = size(data, 2); % 樣本數(shù) % 計(jì)算隱藏層的激活值 for i=2:numel(a) a{i} = sigmoid(stack{i-1}.w*a{i-1}+repmat(stack{i-1}.b, [1 size(a{i-1}, 2)])); %Jweight = Jweight + sum(sum(stack{i-1}.w).^2); end M = softmaxTheta*a{depth+1}; M = bsxfun(@minus, M, max(M, [], 1)); %防止下一步計(jì)算指數(shù)函數(shù)時(shí)溢出M = exp(M); p = bsxfun(@rdivide, M, sum(M)); Jweight = Jweight + sum(softmaxTheta(:).^2); % 計(jì)算softmax分類器的代價(jià)函數(shù),為什么它就是整個(gè)模型的代價(jià)函數(shù)?cost = -1/m .* groundTruth(:)'*log(p(:)) + lambda/2*Jweight;% 代價(jià)函數(shù)=均方差項(xiàng)+權(quán)重衰減項(xiàng)(也叫:規(guī)則化項(xiàng)) %計(jì)算softmax分類器代價(jià)函數(shù)的梯度,即輸出層的梯度 softmaxThetaGrad = -1/m .* (groundTruth - p)*a{depth+1}' + lambda*softmaxTheta; delta = cell(depth+1, 1); %隱藏層和輸出層的殘差 %計(jì)算輸出層的殘差 delta{depth+1} = -softmaxTheta' * (groundTruth - p) .* a{depth+1} .* (1-a{depth+1}); %計(jì)算隱藏層的殘差for i=depth:-1:2 delta{i} = stack{i}.w'*delta{i+1}.*a{i}.*(1-a{i}); end % 通過前面得到的輸出層和隱藏層的殘差,計(jì)算隱藏層參數(shù)的梯度for i=depth:-1:1 stackgrad{i}.w = 1/m .* delta{i+1}*a{i}'; stackgrad{i}.b = 1/m .* sum(delta{i+1}, 2); end % -------------------------------------------------------------------------%% Roll gradient vector grad = [softmaxThetaGrad(:) ; stack2params(stackgrad)];end% You might find this useful function sigm = sigmoid(x)sigm = 1 ./ (1 + exp(-x)); end

    stackedAEPredict.m

    function [pred] = stackedAEPredict(theta, inputSize, hiddenSize, numClasses, netconfig, data)% stackedAEPredict: Takes a trained theta and a test data set, % and returns the predicted labels for each example.% theta: trained weights from the autoencoder % visibleSize: the number of input units % hiddenSize: the number of hidden units *at the 2nd layer* % numClasses: the number of categories % data: Our matrix containing the training data as columns. So, data(:,i) is the i-th training example. % Your code should produce the prediction matrix % pred, where pred(i) is argmax_c P(y(c) | x(i)).%% Unroll theta parameter% We first extract the part which compute the softmax gradient softmaxTheta = reshape(theta(1:hiddenSize*numClasses), numClasses, hiddenSize);% Extract out the "stack" stack = params2stack(theta(hiddenSize*numClasses+1:end), netconfig);%% ---------- YOUR CODE HERE -------------------------------------- % Instructions: Compute pred using theta assuming that the labels start % from 1.%% 前向傳播計(jì)算 depth = numel(stack); a = cell(depth+1); a{1} = data; m = size(data, 2); for i=2:depth+1 a{i} = sigmoid(stack{i-1}.w*a{i-1}+ repmat(stack{i-1}.b, [1 m])); end % % %% softmax模型的輸出Htheta % % softmaxData=a{depth+1};%softmax的輸入即為stack自編碼器最后一層的輸出 % % M=softmaxTheta*softmaxData;%矩陣M % % M=bsxfun(@minus,M,max(M));%減去行向量α,防止數(shù)據(jù)溢出 % % Htheta=bsxfun(@rdivide,exp(M),sum(exp(M)));%softmax模型的假設(shè)函數(shù)輸出 % % %% 計(jì)算Htheta每一列最大元素所在位置,即為該列所對(duì)應(yīng)樣本的類別 % % [~,pred]=max(Htheta);[prob pred] = max(softmaxTheta*a{depth+1}); % -----------------------------------------------------------end% You might find this useful function sigm = sigmoid(x)sigm = 1 ./ (1 + exp(-x)); end

    display_network.m

    function [h, array] = display_network(A, opt_normalize, opt_graycolor, cols, opt_colmajor) % This function visualizes filters in matrix A. Each column of A is a % filter. We will reshape each column into a square image and visualizes % on each cell of the visualization panel. % All other parameters are optional, usually you do not need to worry % about it. % opt_normalize: whether we need to normalize the filter so that all of % them can have similar contrast. Default value is true.% 是否需要?dú)w一化的參數(shù)。真:每個(gè)圖像塊歸一化(即:每個(gè)圖像塊元素值除以該圖像塊中像素值絕對(duì)值的最大值); %假:整幅大圖像一起歸一化(即:每個(gè)圖像塊元素值除以整幅圖像中像素值絕對(duì)值的最大值)。默認(rèn)為真。% opt_graycolor: whether we use gray as the heat map. Default is true. % 該參數(shù)決定是否顯示灰度圖。 % 真:顯示灰度圖;假:不顯示灰度圖。默認(rèn)為真。% cols: how many columns are there in the display. Default value is the % squareroot of the number of columns in A.該參數(shù)決定將要顯示的整幅大圖像每一行中小圖像塊的個(gè)數(shù)。默認(rèn)為A列數(shù)的均方根。% opt_colmajor: you can switch convention to row major for A. In that % case, each row of A is a filter. Default value is false. % 該參數(shù)決定將要顯示的整個(gè)大圖像中每個(gè)小圖像塊是按行從左到右依次排列,還是按列從上到下依次排列 % 真:整個(gè)大圖像由每個(gè)小圖像塊按列從上到下依次排列組成; % 假:整個(gè)大圖像由每個(gè)小圖像塊按行從左到右依次排列組成。默認(rèn)為假。warning off all%關(guān)閉警告% 參數(shù)的默認(rèn)值 %exist(A),測試A是否存在,'var'表示只檢測變量 if ~exist('opt_normalize', 'var') || isempty(opt_normalize)opt_normalize= true; endif ~exist('opt_graycolor', 'var') || isempty(opt_graycolor)opt_graycolor= true; endif ~exist('opt_colmajor', 'var') || isempty(opt_colmajor)opt_colmajor = false; end% rescale整幅大圖像或整個(gè)數(shù)據(jù)0均值化 A = A - mean(A(:));if opt_graycolor, colormap(gray); end %如果要顯示灰度圖,就把該圖形的色圖(即:colormap)設(shè)置為gray% 計(jì)算整幅大圖像中每一行中小圖像塊的個(gè)數(shù)和第一列中小圖像塊的個(gè)數(shù),即列數(shù)n和行數(shù)m compute rows, cols % compute rows, cols [L M]=size(A);% M即為小圖像塊的總數(shù) sz=sqrt(L);% 每個(gè)小圖像塊內(nèi)像素點(diǎn)的行數(shù)和列數(shù) buf=1; % 用于把每個(gè)小圖像塊隔開,即小圖像塊之間的緩沖區(qū)。每個(gè)小圖像塊的邊緣都是一行和一列像素值為-1的像素點(diǎn)。 if ~exist('cols', 'var') %沒有給定列數(shù)的情況下 % 如變量cols不存在時(shí)if floor(sqrt(M))^2 ~= M %M不是平方數(shù)時(shí) % 如果M的均方根不是整數(shù),列數(shù)n就先暫時(shí)取值為M均方根的向右取整n=ceil(sqrt(M));while mod(M, n)~=0 && n<1.2*sqrt(M), n=n+1; end % 當(dāng)M不是n的整數(shù)倍且n小于1.2倍的M均方根值時(shí),列數(shù)n加1m=ceil(M/n); %m是最終要的小patch圖像的尺寸大小 % 行數(shù)m取值為小圖像塊總數(shù)M除以大圖像中每一行中小圖像塊的個(gè)數(shù)n,再向右取整elsen=sqrt(M); % 如果M的均方根是整數(shù),那m和n都取值為M的均方根m=n;end elsen = cols; % 如果變量cols存在,就直接令列數(shù)n等于cols,行數(shù)m為M除以n后向右取整m = ceil(M/n); endarray=-ones(buf+m*(sz+buf),buf+n*(sz+buf));%要保證每個(gè)小圖像塊的四周邊緣都是單行和單列像素值為-1的像素點(diǎn)。所以得到這個(gè)目標(biāo)矩陣if ~opt_graycolor % 如果分隔區(qū)不顯示黑色,而顯示灰度,那就要是要保證:每個(gè)小圖像塊的四周邊緣都是單行和單列像素值為-0.1的像素點(diǎn)array = 0.1.* array; endif ~opt_colmajor % 如果opt_colmajor為假,即:整個(gè)大圖像由每個(gè)小圖像塊按行從左到右依次排列組成k=1; %第k個(gè)小圖像塊for i=1:m % 行數(shù)for j=1:n % 列數(shù)if k>M, continue; endclim=max(abs(A(:,k)));if opt_normalizearray(buf+(i-1)*(sz+buf)+(1:sz),buf+(j-1)*(sz+buf)+(1:sz))=reshape(A(:,k),sz,sz)/clim; %從這可看是n是列數(shù),m是行數(shù)elsearray(buf+(i-1)*(sz+buf)+(1:sz),buf+(j-1)*(sz+buf)+(1:sz))=reshape(A(:,k),sz,sz)/max(abs(A(:)));endk=k+1;endend else % 如果opt_colmajor為真,即:整個(gè)大圖像由每個(gè)小圖像塊按列從上到下依次排列組成k=1;for j=1:n %列數(shù)for i=1:m %行數(shù)if k>M, continue; endclim=max(abs(A(:,k)));if opt_normalizearray(buf+(i-1)*(sz+buf)+(1:sz),buf+(j-1)*(sz+buf)+(1:sz))=reshape(A(:,k),sz,sz)/clim;elsearray(buf+(i-1)*(sz+buf)+(1:sz),buf+(j-1)*(sz+buf)+(1:sz))=reshape(A(:,k),sz,sz);endk=k+1;endend endif opt_graycolor % 要顯示灰度圖,此時(shí)每個(gè)小圖像塊的四周邊緣都是單行和單列像素值為-1的像素點(diǎn)。h=imagesc(array,'EraseMode','none',[-1 1]);%這里講EraseMode設(shè)置為none,表示重繪時(shí)不擦除任何像素點(diǎn)%圖形的EraseMode屬性設(shè)置為none:即為在該圖像上不做任何擦除,直接在原來圖形上繪制 else % 不顯示灰度圖,此時(shí)每個(gè)小圖像塊的四周邊緣都是單行和單列像素值為-0.1的像素點(diǎn)h=imagesc(array,'EraseMode','none',[-1 1]); end axis image off %去掉坐標(biāo)軸drawnow; %刷新屏幕,使圖像可一點(diǎn)一點(diǎn)地顯示warning on all %打開警告

    參考文獻(xiàn)


    Deep Learning 8_深度學(xué)習(xí)UFLDL教程:Stacked Autocoders and Implement deep networks for digit classification_Exercise(斯坦福大學(xué)深度學(xué)習(xí)教程)

    Exercise: Implement deep networks for digit classification

    Deep learning:十六(deep networks)

    UFLDL教程(六)之棧式自編碼器

    UFLDL教程答案(6):Exercise:Implement deep networks for digit classification

    吳恩達(dá) Andrew Ng 的公開課

    總結(jié)

    以上是生活随笔為你收集整理的UFLDL教程: Exercise: Implement deep networks for digit classification的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

    韩日成人av| 欧美韩日精品 | 日韩欧美高清在线观看 | 天天爽夜夜爽人人爽一区二区 | 一性一交视频 | 激情深爱| 在线视频一二三 | 国产专区在线播放 | 伊人天天狠天天添日日拍 | 久久久久综合网 | 最近中文字幕大全中文字幕免费 | 久久系列 | 国产美女视频 | 91热| 日韩天天操 | 成年人三级网站 | 欧美一区二区免费在线观看 | 午夜在线看片 | 亚洲天天在线 | 天天操狠狠操夜夜操 | 大胆欧美gogo免费视频一二区 | 日韩有码第一页 | www成人av | 国产精品精品久久久 | 色婷婷综合在线 | 日本中文乱码卡一卡二新区 | 国产欧美日韩视频 | 成人手机在线视频 | 国产精品嫩草影院123 | 91视频在线观看下载 | 麻豆极品 | 日韩亚洲在线 | 欧美一级片在线免费观看 | 欧美亚洲专区 | 国产亚洲免费的视频看 | 国产高清一级 | 欧美日韩一区二区三区在线免费观看 | 久操久 | 一区二区三区www | av一级片 | 亚洲码国产日韩欧美高潮在线播放 | 国产精品久久久久久久久久久久久久 | 久久精品欧美一区二区三区麻豆 | 五月婷婷中文网 | 精品国产诱惑 | 99久久久久久久 | 国产精品视频 | www.香蕉| 久久狠狠婷婷 | av在线在线| 夜夜操天天摸 | 久草在线视频精品 | 久久国语| 一区精品在线 | 国产一区二区三区免费在线观看 | 综合影视 | 国产精品一区在线 | 久草综合在线观看 | 91精品欧美一区二区三区 | av日韩不卡 | 在线观看免费色 | 97精品国产91久久久久久 | 日韩电影一区二区三区在线观看 | 国产精品一区二区吃奶在线观看 | 日本二区三区在线 | 91看片一区二区三区 | 欧美资源 | 麻豆94tv免费版 | 91精品爽啪蜜夜国产在线播放 | 天天射天天爱天天干 | 最近中文字幕在线 | 亚洲国产精品va在线看黑人 | 久久精品2 | 首页av在线 | 国产精品毛片一区二区在线看 | 婷婷色狠狠 | 久久精品免费播放 | 综合色综合 | 天天操夜夜逼 | 久久久www成人免费精品张筱雨 | 欧美国产日韩在线观看 | av在线一二三区 | 欧美在线观看视频一区二区 | 色综合久久66 | 日本成人中文字幕在线观看 | 日本aaaa级毛片在线看 | 国产91在线免费视频 | 精品在线播放视频 | 六月丁香综合网 | 狠狠成人 | 免费av视屏 | 久久久久久久久影院 | 国产97视频 | 中国成人一区 | 亚洲乱亚洲乱妇 | 国产精品久久嫩一区二区免费 | 日韩免费网址 | 婷婷精品国产一区二区三区日韩 | 精品国产一区在线观看 | 久久草在线精品 | 又色又爽又黄高潮的免费视频 | 久久精品美女视频 | 精品人人人人 | 热久久视久久精品18亚洲精品 | 日本中文一区二区 | 99视频国产精品免费观看 | 在线免费观看不卡av | 日产乱码一二三区别在线 | 在线一二区 | av大全在线免费观看 | 欧美一区二区在线刺激视频 | av免费电影在线观看 | 日日夜夜网 | 丁香色婷婷 | 国产在线视频在线观看 | 久久精品女人毛片国产 | 欧美一区成人 | aaa免费毛片 | 国产亚洲高清视频 | av在线a| 午夜视频免费播放 | 国产视频久久久久 | 夜色成人网 | 欧美视频不卡 | 国产一区福利在线 | 在线观看国产区 | 欧美日韩在线视频一区二区 | 成人免费看视频 | av免费电影在线 | 91伊人久久大香线蕉蜜芽人口 | 深爱激情亚洲 | 日韩婷婷 | 成人欧美一区二区三区黑人麻豆 | 欧美 日韩 视频 | www.久久久com | 日韩精品一区二区三区高清免费 | 国产在线国偷精品产拍免费yy | 国产精品人成电影在线观看 | 一区二区三区日韩在线观看 | 亚洲欧美乱综合图片区小说区 | 婷婷狠狠操 | 91在线在线观看 | 免费美女av| 日本护士三级少妇三级999 | 亚洲精品视频在线观看网站 | 丰满少妇麻豆av | 国产精品爽爽久久久久久蜜臀 | 精品国产综合区久久久久久 | 色婷五月 | 久久天天综合网 | 99精品久久99久久久久 | 婷婷深爱网 | 日韩一二三 | 国产精品高清在线 | 丁香在线| 国产黑丝袜在线 | 久久久久99精品成人片三人毛片 | 97成人在线观看视频 | 亚州激情视频 | 99久久www免费 | 最新高清无码专区 | 国产成人资源 | 天天天射| 美女视频黄的免费的 | 深夜男人影院 | 黄污视频网站 | 一区二区三区观看 | 国产玖玖在线 | 精品国产一区二区三区四 | 国产黄视频在线观看 | 日本激情动作片免费看 | 插婷婷| 久久久亚洲国产精品麻豆综合天堂 | 国产高清网站 | 看毛片网站 | 99夜色| 五月婷婷综合在线观看 | 亚洲精品麻豆视频 | 一区二区三区在线免费观看 | 亚洲欧美乱综合图片区小说区 | 丁香 婷婷 激情 | 欧美激情综合五月色丁香小说 | 91亚色视频在线观看 | 91精品视频一区二区三区 | 在线电影日韩 | 中文字幕在线日亚洲9 | 色先锋av资源中文字幕 | 四川妇女搡bbbb搡bbbb搡 | 91亚洲精品国偷拍自产在线观看 | 国产99爱| 欧美污在线观看 | 亚洲综合网 | 97精品在线 | 欧美日韩视频 | 狠狠操狠狠干2017 | 国产高清免费在线观看 | 中中文字幕av在线 | 国产精品综合久久久 | 成人a在线观看高清电影 | 午夜资源站 | 久草在线资源观看 | 久久久免费| 九九在线国产视频 | 国产成人一区三区 | 99c视频在线 | 国产精品自拍在线 | 欧美va电影 | 99免费在线| 亚洲精品一区二区三区高潮 | 五月婷婷综合激情网 | 免费看黄色大全 | 又色又爽又黄 | 插插插色综合 | 91在线色| 91视频黄色| 久久久久欧美精品999 | 国产成人久久av977小说 | 中文字幕免 | 福利视频网址 | 超碰在线日韩 | 久久久这里有精品 | 久草视频手机在线 | 国产精品毛片久久久 | 美女视频永久黄网站免费观看国产 | 在线看岛国av | 日韩视频一区二区在线 | 欧美国产日韩激情 | 亚洲精品www久久久久久 | 手机在线欧美 | 久久黄色小说 | 丁香视频免费观看 | 精品国产亚洲一区二区麻豆 | 久久艹欧美 | 久久精品在线 | 日韩久久精品一区二区 | 91精品啪啪| 国产精品国产三级国产aⅴ9色 | 中文字幕免费在线 | 国产大片免费久久 | 96亚洲精品久久久蜜桃 | 亚洲成人av片 | 精品久久久久免费极品大片 | 亚洲视频2 | 中文字幕av在线 | 狠狠操狠狠干2017 | 在线免费亚洲 | 精品色999 | 99这里只有精品99 | 午夜久久福利 | 在线观看一二三区 | 欧美韩国日本在线 | 国产精品扒开做爽爽的视频 | 欧美日韩在线免费观看 | 天天干天天操天天 | 91视频91自拍 | 国产黄色片免费观看 | 一级精品视频在线观看宜春院 | 人人澡超碰碰97碰碰碰软件 | 国产精品嫩草69影院 | 麻豆 videos| 男女日麻批 | 成人午夜电影网 | 亚洲日本成人 | 久久久久久福利 | 国产不卡网站 | 国产亚洲在线视频 | 久久夜色精品国产欧美一区麻豆 | 精选久久 | 日韩和的一区二在线 | 色婷婷国产精品一区在线观看 | 日韩影视精品 | 午夜久久福利视频 | 国产伦理久久精品久久久久_ | 国产一及片 | 久久久九色精品国产一区二区三区 | 久久久电影 | 狠狠ri| 国内精品久久久久久久影视麻豆 | 一级免费黄视频 | 中文字幕麻豆 | 日韩专区在线观看 | 免费视频91 | 成人在线免费视频 | 国产精品一区二区久久精品爱涩 | 中文字幕一区av | 日本中文字幕电影在线免费观看 | 99久精品视频 | 玖玖爱国产在线 | 97电影网站| 99中文在线 | 日韩三区在线 | 午夜久久电影网 | 精品久久一区二区三区 | 亚洲国产精品成人av | 日韩免费一区二区在线观看 | 五月婷婷色综合 | 国产在线国偷精品产拍免费yy | 日韩中文字幕a | 91在线中字 | 欧美日韩在线观看一区二区 | 99在线高清视频在线播放 | 91av观看 | 又湿又紧又大又爽a视频国产 | 蜜臀久久99精品久久久久久网站 | 最近中文字幕在线播放 | 伊甸园av在线| 久久国产欧美日韩精品 | 久久综合九色综合欧美狠狠 | 在线观看日韩视频 | 亚洲专区中文字幕 | 亚洲日本va午夜在线电影 | 美女精品久久久 | 美女黄频免费 | 成人免费在线视频 | 美女黄频视频大全 | 在线a视频免费观看 | 午夜免费福利片 | 国产精品人人做人人爽人人添 | 在线成人一区 | 午夜精品婷婷 | 日韩在线视 | 国产一区私人高清影院 | 人人爱在线视频 | 五月天六月色 | 日韩欧美国产视频 | 国产伦理一区 | 美女网站黄在线观看 | 婷婷激情在线 | 久久国语露脸国产精品电影 | 91视频免费看网站 | 少妇精品久久久一区二区免费 | 久久一区二区三区日韩 | 91热视频在线观看 | 久久久久99999 | 久久高视频| 黄色毛片在线观看 | 91中文字幕一区 | 日韩欧美视频免费看 | 又黄又爽又刺激的视频 | 亚洲理论视频 | 日韩午夜视频在线观看 | 国产精品99久久久久 | 91夫妻视频| 免费观看一级特黄欧美大片 | 婷婷亚洲综合五月天小说 | 亚洲国产色一区 | 午夜视频在线网站 | 欧美色图一区 | 免费日韩 精品中文字幕视频在线 | 午夜美女视频 | 久久精品欧美一区 | 成人毛片一区二区三区 | 午夜视频在线观看一区二区三区 | 天天艹日日干 | 亚洲精品免费视频 | 91桃色在线免费观看 | 中文字幕免费观看全部电影 | 午夜婷婷综合 | 亚洲欧洲精品久久 | 日日干av | 免费av电影网站 | 黄在线免费观看 | 在线观看亚洲精品视频 | 一本—道久久a久久精品蜜桃 | 激情婷婷综合网 | 亚洲国产视频在线 | 久久久久久福利 | 黄色网中文字幕 | 国产精品va视频 | 国产视频精品在线 | 九九亚洲视频 | 久草视频在线免费 | 久久视频中文字幕 | 国产99爱| 97人人澡人人添人人爽超碰 | 国产亚洲久一区二区 | 欧美做受69 | 日韩免费一区二区三区 | 亚洲精品久久久久中文字幕m男 | 国产又粗又猛又黄又爽视频 | 日韩精品专区在线影院重磅 | 99精品视频播放 | 亚洲视频精品 | 麻豆传媒视频在线 | 国产精品四虎 | 国产高清精 | 国产免费观看高清完整版 | 香蕉影院在线播放 | 国产91探花| 在线免费av观看 | 免费黄色av | 天天干视频在线 | 国产 一区二区三区 在线 | 黄色日视频 | 五月婷婷激情六月 | 天天爱天天干天天爽 | 国产美女无遮挡永久免费 | 免费看成人av | 亚洲国产网站 | 欧洲不卡av| 蜜桃麻豆www久久囤产精品 | 成人黄色av网站 | 国产成人av | aaa毛片视频 | 国产在线观看免费观看 | 少妇做爰k8经典 | 欧美在线视频二区 | 国产一区二区三区久久久 | 精品夜夜嗨av一区二区三区 | 国产精品毛片一区二区三区 | 欧美日韩国产在线观看 | www.五月天婷婷 | 99热在线观看 | 国产高清视频在线 | 天天操天| 日韩在线观看高清 | 超碰公开在线观看 | 色偷偷888欧美精品久久久 | www.天天色.com | 天天操天天操天天操天天操天天操 | 黄色av电影在线观看 | 国产一区在线视频观看 | 午夜影视剧场 | 西西444www大胆无视频 | 免费看一级黄色 | 国产黄色片网站 | av福利在线免费观看 | 亚洲国产成人久久综合 | 日韩精品一区二区三区第95 | 中文字幕在线观看你懂的 | 一区中文字幕电影 | 免费电影播放 | 一区精品在线 | 亚洲精品久久久久中文字幕二区 | 久久国产精品成人免费浪潮 | 色婷婷88av视频一二三区 | 91精品播放| 婷婷色资源 | 91视频麻豆| av看片网| 免费av免费观看 | 五月婷婷在线观看 | 99精品国产福利在线观看免费 | 午夜10000 | av在线免费在线观看 | 亚洲黄色免费在线看 | 中文字幕在线视频免费播放 | 婷婷夜夜 | 国产综合精品久久 | 五月天久久久久久 | 欧美性护士 | 亚洲激情视频在线 | 美女久久久久久久久久久 | 日韩在线视频二区 | 中文字幕日本在线 | 久久97久久97精品免视看 | 国产一区欧美日韩 | 久草视频国产 | 免费男女羞羞的视频网站中文字幕 | 亚洲精品国产精品国产 | 婷婷亚洲五月色综合 | 成人免费xxxxxx视频 | 伊人久久精品久久亚洲一区 | 国产视| 免费看国产a | 在线欧美国产 | 久久综合精品国产一区二区三区 | 日本中文字幕高清 | 黄色特一级| 91人人澡| 麻豆国产精品视频 | 精品国产一区二区三区久久久蜜臀 | 久久久久久国产精品亚洲78 | 欧美日韩在线视频观看 | 91麻豆精品国产午夜天堂 | 黄色免费网站 | 在线国产视频观看 | 国产拍揄自揄精品视频麻豆 | 伊人五月天av| 天天操夜夜摸 | 中文字幕亚洲不卡 | 婷婷精品国产一区二区三区日韩 | 亚洲久久视频 | 91日韩在线 | 在线播放av网址 | 日本韩国欧美在线观看 | 日韩精品在线视频 | 日韩免费在线观看 | 又黄又爽又刺激视频 | 91视频免费看片 | 亚洲人成人天堂h久久 | 欧美日韩久久久 | 国产伦精品一区二区三区免费 | 色香蕉视频 | 欧美成人性网 | 叶爱av在线 | 成人a视频在线观看 | 最新av电影网址 | 91在线亚洲 | 成年人免费在线 | 91在线免费视频 | 欧美日韩视频网站 | 在线三级av| 亚洲国产成人高清精品 | 亚洲美女在线国产 | 国产福利久久 | 视频在线观看91 | 久久亚洲专区 | 久草在线资源免费 | 日本三级吹潮在线 | 国产成人精品一区二区三区网站观看 | 人人揉人人揉人人揉人人揉97 | 免费看的黄色片 | 日日夜夜国产 | 国产高清一 | 亚洲在线看 | 免费国产一区二区视频 | 日韩在线观看中文 | 国产麻豆成人传媒免费观看 | 91av在线不卡| 高清国产午夜精品久久久久久 | 玖玖视频网 | 国内精品久久天天躁人人爽 | 欧美视频日韩 | 欧美 日韩 国产 中文字幕 | 亚洲视频免费在线看 | 久草在线高清视频 | 日韩激情第一页 | 激情五月五月婷婷 | 久久综合色天天久久综合图片 | 中文字幕黄色av | 精品一区二区三区电影 | 国内视频一区二区 | 99久久婷婷国产一区二区三区 | 天天精品视频 | 天天色天天射天天操 | 色欲综合视频天天天 | 欧美综合在线观看 | 国内精品小视频 | 在线三级播放 | 91视频三区 | 色www永久免费 | 黄网站app在线观看免费视频 | 视频在线在亚洲 | 中文字幕在线视频国产 | 午夜av片 | 久草爱 | av资源免费观看 | 99精品国自产在线 | 国产一区欧美二区 | 狠狠干美女 | 日本公妇在线观看 | 色网站在线看 | 成人在线黄色 | 国产在线观看免 | 一级淫片在线观看 | 久久超级碰 | 91av视屏| 欧美成人精品欧美一级乱 | 最新av在线免费观看 | 成人国产精品电影 | 视频在线播放国产 | 伊人久在线 | 这里有精品在线视频 | 美女久久网站 | 日韩国产欧美在线播放 | 97超碰人人模人人人爽人人爱 | 国产无套一区二区三区久久 | 在线亚洲欧美日韩 | 亚洲精品免费在线观看 | 久久精品免视看 | 国产午夜一级毛片 | 精品视频www | 一级黄色片在线 | 99热这里只有精品免费 | 欧美巨大荫蒂茸毛毛人妖 | 一级性av | 中文字幕在线观看网址 | 久久国产欧美日韩 | 99国产一区 | 亚洲精品美女在线观看播放 | 午夜影院一级 | 亚洲欧洲日韩在线观看 | 激情五月亚洲 | 狠狠色丁香久久婷婷综合_中 | 日韩性网站 | 91激情在线视频 | 日韩欧美在线中文字幕 | 亚洲电影院 | 在线观看视频日韩 | 精品免费久久久久 | 在线99 | 国产一级片免费观看 | 色噜噜日韩精品一区二区三区视频 | 久久精品国产免费看久久精品 | 天天干天天操天天爱 | 亚洲欧美在线观看视频 | 国产一区二区三区免费在线观看 | 欧美日韩精品在线 | 少妇精69xxtheporn | 国产精品女同一区二区三区久久夜 | 成人午夜性影院 | 欧美日韩国产一区二区三区在线观看 | 成人久久久久久久久久 | 黄色在线看网站 | 97在线观看视频国产 | 一区中文字幕在线观看 | 一级黄色片在线播放 | 日韩精品中文字幕在线不卡尤物 | 欧美日韩中文字幕视频 | 久久特级毛片 | 亚洲狠狠婷婷综合久久久 | 天天摸夜夜操 | av专区在线| 日韩精品一区二区在线视频 | 国产精品久久久久久久午夜 | 狠狠色丁香久久婷婷综合_中 | 免费看毛片网站 | 久久福利小视频 | 国产精品99免费看 | 日本最新高清不卡中文字幕 | 99产精品成人啪免费网站 | 九九免费在线看完整版 | 日韩欧美高清免费 | 天天射综合| 日韩一区在线播放 | 免费av网站在线 | 综合色亚洲 | 黄色动态图xx | 99在线视频网站 | 五月花丁香婷婷 | 免费在线观看av网站 | 日韩艹| 日韩在线视频在线观看 | 免费视频你懂得 | 日韩精品三区四区 | 天天干 天天摸 天天操 | 国产高清在线免费 | 日韩欧美视频免费看 | 国产精品网站一区二区三区 | 久久久污 | 国产又粗又猛又黄 | 黄色免费网站 | 国产精品6999成人免费视频 | 欧美不卡视频在线 | 五月激情丁香图片 | 激情综合色图 | www.狠狠插.com| 一区二区三区日韩在线 | 久久亚洲区 | 国产精品久久久毛片 | 成人免费色 | 久久精彩免费视频 | 91精品在线播放 | 91精品久 | 日韩av一区二区三区四区 | av电影av在线| 欧美精品三级在线观看 | 人人澡人人澡人人 | 免费a视频 | 国产色婷婷精品综合在线手机播放 | 欧美精品一区在线发布 | 天天摸天天操天天爽 | 日韩精品五月天 | 美女免费黄网站 | 亚洲精品xxxx | 色资源二区在线视频 | 国产精品美女视频 | 激情婷婷色| 久久婷综合 | 免费中文字幕视频 | 啪啪免费视频网站 | 韩日精品中文字幕 | 免费久久久久久 | 麻豆精品视频在线 | 大荫蒂欧美视频另类xxxx | 久久亚洲私人国产精品va | 亚洲自拍自偷 | 国产精品久久久久久久久久直播 | 免费看污在线观看 | 国产一区久久 | av一级久久 | 色99导航 | 91av在线免费 | 欧美aaa级片| 色五月色开心色婷婷色丁香 | 狠狠色丁香婷婷综合基地 | 久久新| 久久99国产一区二区三区 | 波多野结衣在线播放一区 | av免费电影在线观看 | 黄色一级大片在线免费看国产一 | 国产一线天在线观看 | 中文字幕 国产精品 | 国产一级二级在线观看 | 少妇自拍av| 欧美日韩在线观看视频 | 五月婷婷综合激情 | 国产午夜三级一区二区三桃花影视 | 超碰人在线 | 欧美视频二区 | 又黄又爽又刺激视频 | 久热电影| 三上悠亚一区二区在线观看 | 在线播放精品一区二区三区 | 一区二区 精品 | 国产在线视频一区二区 | 国产又粗又硬又爽的视频 | 97偷拍视频 | 人人操日日干 | 在线成人国产 | 国产区高清在线 | 西西www4444大胆在线 | 狠狠色狠狠色合久久伊人 | 99久久精品免费一区 | 国产精品久久久久三级 | 亚洲精品乱码久久久久久高潮 | 天天干天天弄 | 少妇搡bbbb搡bbb搡忠贞 | 国产综合91 | 2019免费中文字幕 | 天天弄天天干 | 亚洲精品国产视频 | 国产福利91精品 | 视频福利在线 | 日韩av资源站| 亚洲精品国产精品99久久 | 国产精品久久久久久久久久久久 | 婷婷激情在线观看 | 久久国产精品免费一区二区三区 | 亚洲精品黄网站 | 国内精品久久久久久久久久清纯 | 日本护士三级少妇三级999 | 在线日本看片免费人成视久网 | 色综合天天天天做夜夜夜夜做 | 91av蜜桃 | 菠萝菠萝在线精品视频 | 亚洲精品久久久久中文字幕二区 | 亚洲激情视频在线观看 | 久久这里只有精品9 | www久| 91精品国产成人观看 | 久久久久久久久久网站 | 狠狠色丁香婷婷综合视频 | 99视频精品免费观看, | 日三级在线 | 日韩中文久久 | 99精品国产一区二区 | 99久久婷婷国产精品综合 | 亚洲午夜久久久久久久久久久 | 日韩激情一二三区 | 三上悠亚一区二区在线观看 | 91香蕉视频色版 | 日韩精品免费一区二区 | 国产一区在线视频播放 | 日韩欧美高清 | 五月天狠狠操 | 狠狠久久综合 | 亚洲夜夜网| 国产精品自产拍在线观看中文 | 欧美 日韩 性 | 国内精品一区二区 | 中文字幕在线有码 | 91精品欧美 | 色综合久久88色综合天天6 | 97久久久免费福利网址 | 精品不卡视频 | 欧美做受xxx | 亚洲一区二区精品视频 | 激情五月色播五月 | 啪啪动态视频 | 亚洲精品五月 | 在线 高清 中文字幕 | 91禁在线观看| 性色av香蕉一区二区 | 性色大片在线观看 | 国产在线观看你懂的 | www.亚洲精品视频 | 国产精品久久久一区二区三区网站 | 99久久婷婷 | 最近最新最好看中文视频 | 国产精品一区专区欧美日韩 | 久久综合成人网 | 91精品国产自产在线观看永久 | av资源免费观看 | 四虎影视成人永久免费观看亚洲欧美 | 国产精品一区二区吃奶在线观看 | 欧美日韩亚洲在线观看 | 女人18毛片90分钟 | 久久久久久久国产精品影院 | 国产亚洲精品久 | 国产精品美女久久久久久久久久久 | 欧美大片aaa | 蜜臀91丨九色丨蝌蚪老版 | 国产69久久 | 久久超碰在线 | 五月天婷婷免费视频 | 亚洲一区动漫 | 国产亚洲小视频 | 国产又粗又猛又黄 | 97在线观看视频 | 毛片网在线播放 | 日日夜夜精品视频天天综合网 | 精品日韩中文字幕 | 欧美色图另类 | 欧美大片在线观看一区 | 欧美日韩中文字幕视频 | 四川bbb搡bbb爽爽视频 | 在线激情小视频 | 天天爱天天操 | 亚洲精品99 | 五月天丁香 | 久久综合狠狠综合久久综合88 | 色是在线视频 | 一本一本久久a久久精品综合 | 天堂av影院 | 婷婷国产一区二区三区 | 日日干干夜夜 | 久草久| 热久久免费视频精品 | 丝袜足交在线 | 久久久久久久久免费 | 黄色视屏在线免费观看 | 韩国精品福利一区二区三区 | 亚洲精品中文字幕在线观看 | av电影在线观看完整版一区二区 | 精品视频免费播放 | 亚洲毛片一区二区三区 | 亚洲午夜久久久久久久久久久 | 香蕉久久久久久av成人 | 欧洲成人av | 女人高潮一级片 | 国产.精品.日韩.另类.中文.在线.播放 | 中文字幕最新精品 | 日日干视频 | 天天色 天天 | 99久久99久久精品 | 天天综合网 天天综合色 | 婷婷丁香花五月天 | 激情综合狠狠 | 久草在线网址 | 日日婷婷夜日日天干 | 国产青青青 | 免费观看91视频 | 狠狠色丁香婷婷综合久小说久 | 欧美成人按摩 | 在线精品视频免费播放 | 国产成人资源 | 亚洲综合激情五月 | 91热精品视频| 日韩国产高清在线 | 久久女同性恋中文字幕 | 精品九九九 | 九七在线视频 | 99精品成人 | 久久免费视频网 | 免费观看国产视频 | 欧美日韩久 | 久草在线免费播放 | 色婷婷综合久久久久 | 日日夜夜操av| japanesexxxhd奶水 91在线精品一区二区 | 日韩特级毛片 | 久产久精国产品 | 精品99免费视频 | 狠狠躁日日躁 | 中文字幕a∨在线乱码免费看 | 成年人精品 | 国产免费视频一区二区裸体 | 99国产精品久久久久久久久久 | 人人添人人澡人人澡人人人爽 | 国产色一区| 92中文资源在线 | 久久看毛片 | 亚洲精品成人av在线 | 国产精品视频免费看 | 国产在线观看99 | 国产精品色婷婷 | 五月天婷婷狠狠 | 波多野结衣在线视频一区 | 国产成人黄色 | 成人久久 | 国产精品午夜在线观看 | 日日夜夜网站 | 麻花传媒mv免费观看 | 天天干天天摸天天操 | 成人午夜精品久久久久久久3d | 国产区在线视频 | 亚洲精品综合在线观看 | 超碰国产在线 | 亚洲精品91天天久久人人 | 日韩精品 在线视频 | 亚洲国产人午在线一二区 | 免费特级黄色片 | 日本在线精品视频 | 日韩免费视频网站 | 欧美久久久久久久 | 精品国产一区二区三区久久 | 欧美地下肉体性派对 | 在线看小早川怜子av | 在线观看网站你懂的 | 五月花婷婷 | 成年人免费av网站 | 热99久久精品 | 亚洲国产精品成人综合 | 亚洲人av免费网站 | 午夜精品久久久久99热app | 天天天在线综合网 | 九九久久在线看 | 欧美少妇bbwhd | 日韩中文字幕亚洲一区二区va在线 | 狠色狠色综合久久 | 成人亚洲网 | 国产免费资源 | 国产一级免费观看 | 国产视频久| 香蕉影视在线观看 | 91精品老司机久久一区啪 | 人人干干人人 | 国产精品免费一区二区三区在线观看 | 国产精品一区二区三区免费视频 | 免费看日韩片 | 国内精品久久久久影院男同志 | 久久艹久久 | 欧美男女爱爱视频 | 日韩中文在线播放 | 久久影院中文字幕 | 狠狠色丁香婷婷综合久小说久 | 69精品视频在线观看 | 亚洲在线黄色 | 国产精品免费一区二区 | 亚洲精品午夜视频 | 欧美怡红院视频 | 美女在线黄 | 久久超碰97| 国产午夜精品福利视频 | 深爱开心激情 | 97在线免费视频 | 97国产视频 | 国产精品大尺度 | 婷婷视频在线 | 久久无码精品一区二区三区 | 日韩特级毛片 | 国产色 在线 | 成人av免费网站 | 午夜精品视频免费在线观看 | 国产精品免费视频网站 | aaawww | 欧美色图亚洲图片 | 日韩特级毛片 | 国产精品免费视频一区二区 | 国产高清不卡一区二区三区 | 99精品在线视频播放 | 2019精品手机国产品在线 | 国产精品久久久久久久妇 | 高清中文字幕av | 日韩在线观看小视频 | 黄p网站在线观看 | 又黄又刺激视频 | 成人免费看视频 | 999久久久久久久久6666 | 日本二区三区在线 | 麻豆久久| 亚洲免费a | 亚洲国产精品免费 | 黄色视屏在线免费观看 | 欧美aaa大片 | 国产在线观看你懂得 | 中文字幕av免费 | 日韩免费电影网站 | 日本精品视频一区 | 亚洲人成在线电影 | 激情网色 | av在线免费在线 | 91丨九色丨勾搭 | 中文字幕在线国产 | www.人人干 | 免费看污污视频的网站 | 黄色毛片电影 | 精品久久久久久一区二区里番 | 欧美精品在线一区 | 国产视频精品久久 | 黄色国产成人 | 一区二区三区免费 | 最近中文字幕免费av | 不卡av在线播放 | 成人黄色毛片 | 五月婷婷另类国产 | 青青河边草免费视频 | 在线一区观看 | 爱射综合| 一区二区中文字幕在线 | 97免费视频在线播放 | 免费成人短视频 | 亚洲最新在线 | 日韩区在线观看 | 一区在线免费观看 | 久久久www成人免费毛片麻豆 |