日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 编程资源 > 编程问答 >内容正文

编程问答

人工神经网络_制作属于自己的人工神经网络

發(fā)布時(shí)間:2023/12/10 编程问答 55 豆豆
生活随笔 收集整理的這篇文章主要介紹了 人工神经网络_制作属于自己的人工神经网络 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

在本文中,我已經(jīng)實(shí)現(xiàn)了具有Dropout和L2正則化的人工神經(jīng)網(wǎng)絡(luò)的完全向量化代碼。

在本文中,我實(shí)現(xiàn)了一個(gè)在多個(gè)數(shù)據(jù)集上測(cè)試的人工神經(jīng)網(wǎng)絡(luò)的完全向量化python代碼。此外,并對(duì)Dropout和L2正則化技術(shù)進(jìn)行了實(shí)現(xiàn)和詳細(xì)說明。

強(qiáng)烈建議通過人工神經(jīng)網(wǎng)絡(luò)的基本工作,正向傳播和反向傳播。

本文分為10個(gè)部分:

  • 介紹
  • 先決條件
  • 導(dǎo)入我們的庫(kù)
  • 激活函數(shù)及求導(dǎo)
  • 神經(jīng)網(wǎng)絡(luò)類
  • 初始化權(quán)重和偏差
  • 正向傳播
  • 成本函數(shù)
  • 反向傳播
  • 預(yù)測(cè)新數(shù)據(jù)集的標(biāo)簽
  • 1.簡(jiǎn)介

    人工神經(jīng)網(wǎng)絡(luò)是監(jiān)督深度學(xué)習(xí)中最簡(jiǎn)單和最基本的概念之一。它可用于執(zhí)行多個(gè)任務(wù),如二進(jìn)制或分類。它看起來很容易理解和實(shí)現(xiàn)。在編寫這樣一個(gè)網(wǎng)絡(luò)的過程中,會(huì)出現(xiàn)一些小問題,這些問題會(huì)導(dǎo)致很大的錯(cuò)誤,并幫助您理解以前忽略的概念。因此,在本文中,我嘗試實(shí)現(xiàn)一個(gè)人工神經(jīng)網(wǎng)絡(luò),它可能會(huì)幫助您節(jié)省正確編碼和理解主題的每個(gè)概念所需的工作時(shí)間。

    2.先決條件

    我假設(shè)你知道神經(jīng)網(wǎng)絡(luò)是什么以及它們是如何學(xué)習(xí)的。如果你對(duì)Python和像numpy這樣的庫(kù)很熟悉的話,這將很容易理解。另外,還需要對(duì)線性代數(shù)和微積分知識(shí)有很好的了解,以便于輕松地理解正向和反向傳播部分。此外,我強(qiáng)烈建議您閱讀Andrew Ng在Coursera上的課程視頻(https://www.coursera.org/ ; https://www.deeplearning.ai/ )。

    3.導(dǎo)入我們的庫(kù)

    現(xiàn)在,我們可以開始對(duì)神經(jīng)網(wǎng)絡(luò)進(jìn)行編碼了。第一件事是需要導(dǎo)入我們實(shí)現(xiàn)網(wǎng)絡(luò)所需的所有庫(kù)。

    # Importing the librariesimport numpy as npimport matplotlib.pyplot as pltimport pandas as pdimport warningsimport timewarnings.filterwarnings('ignore');import osimport sys

    我們將使用pandas導(dǎo)入和清理我們的數(shù)據(jù)集。Numpy 是執(zhí)行矩陣代數(shù)和復(fù)雜計(jì)算的最重要的庫(kù)。

    4.激活函數(shù)及求導(dǎo)

    在本文后面的部分中,我們將需要激活函數(shù)來執(zhí)行正向傳播。另外,我們還需要在反向傳播過程中對(duì)激活函數(shù)求導(dǎo)。

    所以,讓我們編寫一些激活函數(shù)。

    def sigmoid(z) : """ Reutrns the element wise sigmoid function. """ return 1./(1 + np.exp(-z))def sigmoid_prime(z) : """ Returns the derivative of the sigmoid function. """ return sigmoid(z)*(1-sigmoid(z))def ReLU(z) : """ Reutrns the element wise ReLU function. """ return (z*(z > 0))def ReLU_prime(z) : """ Returns the derivative of the ReLU function. """ return 1*(z>=0)def lReLU(z) : """ Reutrns the element wise leaky ReLU function. """ return np.maximum(z/100,z)def lReLU_prime(z) : """ Returns the derivative of the leaky ReLU function. """ z = 1*(z>=0) z[z==0] = 1/100 return zdef tanh(z) : """ Reutrns the element wise hyperbolic tangent function. """ return np.tanh(z)def tanh_prime(z) : """ Returns the derivative of the tanh function. """ return (1-tanh(z)**2)# A dictionary of our activation functionsPHI = {'sigmoid':sigmoid, 'relu':ReLU, 'lrelu':lReLU, 'tanh':tanh}# A dictionary containing the derivatives of our activation functionsPHI_PRIME = {'sigmoid':sigmoid_prime, 'relu':ReLU_prime, 'lrelu':lReLU_prime, 'tanh':tanh_prime}

    我們有四種最流行的激活函數(shù)。首先是常規(guī)的sigmoid激活函數(shù)。

    我們有ReLU或“ 線性整流函數(shù) ”。我們將主要使用這個(gè)激活函數(shù)。注意,我們將保持ReLU 0的導(dǎo)數(shù)在點(diǎn)0處。

    我們還有一個(gè)ReLU的擴(kuò)展版本叫做Leaky ReLU。它的工作原理與ReLU類似,可以在某些數(shù)據(jù)集上提供更好的結(jié)果(不一定是全部)。

    我們還有tanh(雙曲正切)激活函數(shù)。它也被廣泛使用,并且?guī)缀蹩偸莾?yōu)于sigmoid。

    另外,PHI和PHI_PRIME是分別包含激活函數(shù)及其導(dǎo)數(shù)的python字典。

    5.我們的神經(jīng)網(wǎng)絡(luò)類

    在本節(jié)中,我們將創(chuàng)建并初始化我們的神經(jīng)網(wǎng)絡(luò)類。首先,我們將決定在初始化期間使用哪些參數(shù)。我們需要:

  • 每層神經(jīng)元的數(shù)量
  • 我們想在每一層中使用激活函數(shù)
  • 我們的特征矩陣(X包含行特征和列特征)。
  • 特征矩陣對(duì)應(yīng)的標(biāo)簽(y是行向量)
  • 初始化權(quán)重和偏差的方法
  • 使用損失函數(shù)
  • 記住這一點(diǎn),讓我們開始編寫神經(jīng)網(wǎng)絡(luò)的類:

    class NeuralNet : """ This is a class for making Artificial Neural Networks. L2 and Droupout are the default regularization methods implemented in this class. It takes the following parameters: 1. layers : A python list containing the different number of neurons in each layer. (containing the output layer) Eg - [64,32,16,16,1] 2. X : Matrix of features with rows as features and columns as different examples. 3. y : Numpy array containing the ouputs of coresponding examples. 4. ac_funcs : A python list containing activation function of each layer. Eg - ['relu','relu','lrelu','tanh','sigmoid'] 5. init_method : Meathod to initialize weights of the network. Can be 'gaussian','random','zeros'. 6. loss_func : Currently not implemented 7. W : Weights of a pretrained neural network with same architecture. 8. W : Biases of a pretrained neural network with same architecture. """

    現(xiàn)在我們有了一個(gè)正確記錄的神經(jīng)網(wǎng)絡(luò)類,我們可以繼續(xù)初始化網(wǎng)絡(luò)的其他變量。

    def __init__(self, layers, X, y, ac_funcs, init_method='gaussian', loss_func='b_ce', W=np.array([]), B=np.array([])) : """ Initialize the network. """ # Store the layers of the network self.layers = layers # ---- self.W = None self.B = None # Store the number of examples in the dataset as m self.m = X.shape[1] # Store the full layer list as n self.n = [X.shape[0], *layers] # Save the dataset self.X = X # Save coresponding output self.y = y # List to store the cost of the model calculated during training self.cost = [] # Stores the accuracy obtained on the test set. self.acc = 0 # Activation function of each layer self.ac_funcs = ac_funcs self.loss = loss_func # Inittialize the weights by provided methods if not provided.

    我們將使用' self.m'來存儲(chǔ)數(shù)據(jù)集中示例的數(shù)量。' self.n '將存儲(chǔ)每層中神經(jīng)元數(shù)量的信息。' self.ac_funcs '是每層的激活函數(shù)的python列表。' self.cost '將在我們訓(xùn)練網(wǎng)絡(luò)時(shí)存儲(chǔ)成本函數(shù)的記錄值。' self.acc '將在訓(xùn)練后的數(shù)據(jù)集上存儲(chǔ)記錄的精度。在初始化網(wǎng)絡(luò)的所有變量之后,讓我們進(jìn)一步初始化網(wǎng)絡(luò)的權(quán)重和偏差。

    6.初始化權(quán)重和偏差

    我們知道權(quán)重不能初始化為零,因?yàn)槊總€(gè)神經(jīng)元的假設(shè)變得相同而網(wǎng)絡(luò)永遠(yuǎn)不會(huì)學(xué)習(xí)。因此,我們必須有一些方法來使我們的神經(jīng)網(wǎng)絡(luò)學(xué)習(xí)。我們可以使用高斯正態(tài)分布來獲得隨機(jī)值。由于這些分布的均值為零,因此權(quán)重集中在零并且非常小。因此,網(wǎng)絡(luò)開始非常快速有效地學(xué)習(xí)。我們可以使用np.random.randn()函數(shù)從正態(tài)分布中生成隨機(jī)值。

    # Inittialize the weights by provided methods if not provided. if len(W) and len(B) : self.W = W self.B = B else : if init_method=='gaussian': self.W = [np.random.randn(self.n[nl], self.n[nl-1]) for nl in range(1,len(self.n))] self.B = [np.zeros((nl,1), 'float32') for nl in self.layers] elif init_method == 'random': self.W = [np.random.rand(self.n[nl], self.n[nl-1]) for nl in range(1,len(self.n))] self.B = [np.random.rand(nl,1) for nl in self.layers] elif init_method == 'zeros': self.W = [np.zeros((self.n[nl], self.n[nl-1]), 'float32') for nl in range(1,len(self.n))] self.B = [np.zeros((nl,1), 'float32') for nl in self.layers]

    我們已將權(quán)重初始化為正態(tài)分布中的隨機(jī)值。偏差已初始化為零。

    7.正向傳播

    首先,讓我們理解沒有正則化的正向傳播。

    我們用Z表示每個(gè)神經(jīng)元從一層到另一層的連接。一旦我們計(jì)算了Z,我們將激活函數(shù)f應(yīng)用于Z值以獲得每層中每個(gè)神經(jīng)元的激活y。這是簡(jiǎn)單的正向傳播。Dropout是一種提高神經(jīng)網(wǎng)絡(luò)泛化能力和魯棒性的神奇技術(shù)。所以,讓我們首先了解一下Dropout正則化。

    Dropout正則化的本質(zhì)

    Dropout,顧名思義,是指神經(jīng)網(wǎng)絡(luò)中的一些神經(jīng)元“失活”,并對(duì)其余的神經(jīng)元進(jìn)行訓(xùn)練。

    為了提高性能,我們可以訓(xùn)練幾十個(gè)和幾百個(gè)具有不同超參數(shù)值的神經(jīng)網(wǎng)絡(luò),獲得所有網(wǎng)絡(luò)的輸出并取其平均值來獲得最終結(jié)果。這個(gè)過程在計(jì)算上非常昂貴并且實(shí)際上不能實(shí)現(xiàn)。因此,我們需要一種以更優(yōu)化和計(jì)算成本更低的方式執(zhí)行類似操作的方法。Dropout正則化以非常便宜和簡(jiǎn)單的方式完成相似的事情。事實(shí)上,Dropout是優(yōu)化性能的簡(jiǎn)單方法,近年來受到了廣泛的關(guān)注,并且?guī)缀踉谠S多其他深度學(xué)習(xí)模型中無處不在。

    要實(shí)現(xiàn)Dropout,我們將使用以下方法:

    我們將首先從伯努利分布中提取隨機(jī)值,如果概率高于某個(gè)閾值則保持神經(jīng)元不變,然后執(zhí)行常規(guī)正向傳播。注意,我們不會(huì)在預(yù)測(cè)新數(shù)據(jù)集上的值或測(cè)試時(shí)間期間應(yīng)用dropout。

    實(shí)現(xiàn)Dropout的代碼

    我們使用keep_prob作為每層神經(jīng)元存活的概率。我們只保留概率高于存活概率或keep_prob的神經(jīng)元。假設(shè),它的值是0.8。這意味著我們將使每一層中20%的神經(jīng)元失活,并訓(xùn)練其余80%的神經(jīng)元。注意,我們?cè)诿看蔚笸S秒S機(jī)選擇的神經(jīng)元。這有助于神經(jīng)元學(xué)習(xí)在更大的數(shù)據(jù)集上泛化的特征。

    def _feedForward(self, keep_prob): """ Forward pass """ z = [];a = [] z.append(np.dot(self.W[0], self.X) + self.B[0]) a.append(PHI[self.ac_funcs[0]](z[-1])) for l in range(1,len(self.layers)): z.append(np.dot(self.W[l], a[-1]) + self.B[l]) # a.append(PHI[self.ac_funcs[l]](z[l])) _a = PHI[self.ac_funcs[l]](z[l]) a.append( ((np.random.rand(_a.shape[0],1) < keep_prob)*_a)/keep_prob ) return z,a

    我們首先初始化將存儲(chǔ)Z和A值的列表。我們首先在Z中附加第一層的線性值,然后在A中附加第一層神經(jīng)元的激活。PHI是一個(gè)python字典,包含我們之前編寫的激活函數(shù)。類似地使用for循環(huán)計(jì)算所有其他層的Z和A的值。注意,我們沒有在輸入層應(yīng)用dropout。我們最終返回Z和A的計(jì)算值。

    8.成本函數(shù)

    我們將使用標(biāo)準(zhǔn)二進(jìn)制/分類交叉熵成本函數(shù)。

    def _cost_func(self, a, _lambda): """ Binary Cross Entropy Cost Function """ return ( (-1/self.m)*np.sum(np.nan_to_num(self.y*np.log(a) + (1-self.y)*np.log(1-a))) + (_lambda/(2*self.m))*np.sum([np.sum(i**2) for i in self.W]) ) def _cost_derivative(self, a) : """ The derivative of cost w.r.t z """ return (a-self.y)

    我們用L2正則化對(duì)我們的成本函數(shù)進(jìn)行了編譯。lambda參數(shù)稱為“ 懲罰參數(shù) ”。它有助于使權(quán)重值不會(huì)迅速增加,從而更好地形成。這里,' a'包含輸出層的激活值。我們還有函數(shù)_cost_derivative來計(jì)算成本函數(shù)對(duì)輸出層激活的導(dǎo)數(shù)。我們稍后會(huì)在反向傳播期間使用它。

    9.反向傳播

    以下是我們需要執(zhí)行反向傳播的一些公式。

    我們將在深度神經(jīng)網(wǎng)絡(luò)上實(shí)現(xiàn)這一點(diǎn)。右邊的公式是完全向量化的。一旦理解了這些公式,我們就可以繼續(xù)對(duì)它們進(jìn)行編譯。

    def startTraining(self, epochs, alpha, _lambda, keep_prob=0.5, interval=100): """ Start training the neural network. It takes the followng parameters : 1. epochs : Number of epochs for which you want to train the network. 2. alpha : The learning rate of your network. 3. _lambda : L2 regularization parameter or the penalization parameter. 4. keep_prob : Dropout regularization parameter. The probability of neurons to deactivate. Eg - 0.8 means 20% of the neurons have been deactivated. 5. interval : The interval between updates of cost and accuracy. """ start = time.time() for i in range(epochs+1) : z,a = self._feedForward(keep_prob) delta = self._cost_derivative(a[-1]) for l in range(1,len(z)) : delta_w = np.dot(delta, a[-l-1].T) + (_lambda)*self.W[-l] delta_b = np.sum(delta, axis=1, keepdims=True) delta = np.dot(self.W[-l].T, delta)*PHI_PRIME[self.ac_funcs[-l-1]](z[-l-1]) self.W[-l] = self.W[-l] - (alpha/self.m)*delta_w self.B[-l] = self.B[-l] - (alpha/self.m)*delta_b delta_w = np.dot(delta, self.X.T ) + (_lambda)*self.W[0] delta_b = np.sum(delta, axis=1, keepdims=True) self.W[0] = self.W[0] - (alpha/self.m)*delta_w self.B[0] = self.B[0] - (alpha/self.m)*delta_b

    我們將epochs、alpha(學(xué)習(xí)率)、_lambda、keep_prob和interval作為函數(shù)的參數(shù)來實(shí)現(xiàn)反向傳播。

    我們從正向傳播開始。然后我們將成本函數(shù)的導(dǎo)數(shù)計(jì)算為delta。現(xiàn)在,對(duì)于每一層,我們計(jì)算delta_w和delta_b,其中包含成本函數(shù)對(duì)網(wǎng)絡(luò)的權(quán)重和偏差的導(dǎo)數(shù)。然后我們根據(jù)各自的公式更新delta,權(quán)重和偏差。在將最后一層的權(quán)重和偏差更新到第二層之后,我們更新第一層的權(quán)重和偏差。我們這樣做了幾次迭代,直到權(quán)重和偏差的值收斂。

    重要提示:此處可能出現(xiàn)的一個(gè)重大錯(cuò)誤是在更新權(quán)重和偏差后更新delta 。這樣做可能會(huì)導(dǎo)致非常糟糕的梯度漸變消失/爆炸問題。

    我們的大部分工作都在這里完成,但是我們?nèi)匀恍枰幾g可以預(yù)測(cè)新數(shù)據(jù)集結(jié)果的函數(shù)。因此,作為我們的最后一步,我們將編寫一個(gè)函數(shù)來預(yù)測(cè)新數(shù)據(jù)集的標(biāo)簽。

    10.預(yù)測(cè)新數(shù)據(jù)集的標(biāo)簽

    這一步非常簡(jiǎn)單。我們只需要執(zhí)行正向傳播但不需要Dropout正則化。我們不需要在測(cè)試時(shí)應(yīng)用Dropout正則化,因?yàn)槲覀冃枰袑拥乃猩窠?jīng)元來為我們提供適當(dāng)?shù)慕Y(jié)果,而不僅僅是一些隨機(jī)值。

    def predict(self, X_test) : """ Predict the labels for a new dataset. Returns probability. """ a = PHI[self.ac_funcs[0]](np.dot(self.W[0], X_test) + self.B[0]) for l in range(1,len(self.layers)): a = PHI[self.ac_funcs[l]](np.dot(self.W[l], a) + self.B[l]) return a

    我們將返回輸出層的激活作為結(jié)果。

    整個(gè)代碼

    以下是您自己實(shí)現(xiàn)人工神經(jīng)網(wǎng)絡(luò)的完整代碼。我在培訓(xùn)時(shí)添加了一些代碼來打印網(wǎng)絡(luò)的成本和準(zhǔn)確性。除此之外,一切都是一樣的。

    # Importing the librariesimport numpy as npimport matplotlib.pyplot as pltimport pandas as pdimport warningsimport timewarnings.filterwarnings('ignore');import osimport sys# Importing our datasetos.chdir("C:/Users/Hilak/Desktop/INTERESTS/Machine Learning A-Z Template Folder/Part 3 - Classification/Section 14 - Logistic Regression");training_set = pd.read_csv("Social_Network_Ads.csv");# Splitting our dataset into matrix of features and output values.X = training_set.iloc[:, 1:4].valuesy = training_set.iloc[:, 4].values# Encoding our object features.from sklearn.preprocessing import LabelEncoder, OneHotEncoderle_x = LabelEncoder()X[:,0] = le_x.fit_transform(X[:,0])ohe = OneHotEncoder(categorical_features = [0])X = ohe.fit_transform(X).toarray()# Performing Feature scalingfrom sklearn.preprocessing import StandardScalerss = StandardScaler()X[:,2:4] = ss.fit_transform(X[:, 2:4])# Splitting the dataset into train and test set.from sklearn.model_selection import train_test_splitX_train, X_test, y_train, y_test = train_test_split(X,y,test_size=0.3)X_train = X_train.TX_test = X_test.T# # Alternate Dataset for test purposes. Not used in the example shown# os.chdir("C:甥敳獲HilakDesktopINTERESTSMachine Learning A-Z Template FolderPart 8 - Deep LearningSection 39 - Artificial Neural Networks (ANN)");# dataset = pd.read_csv('Churn_Modelling.csv')# X = dataset.iloc[:, 3:13].values# y = dataset.iloc[:, 13].values# # Encoding categorical data# from sklearn.preprocessing import LabelEncoder, OneHotEncoder# labelencoder_X_1 = LabelEncoder()# X[:, 1] = labelencoder_X_1.fit_transform(X[:, 1])# labelencoder_X_2 = LabelEncoder()# X[:, 2] = labelencoder_X_2.fit_transform(X[:, 2])# onehotencoder = OneHotEncoder(categorical_features = [1])# X = onehotencoder.fit_transform(X).toarray()# X = X[:, 1:]# # Splitting the dataset into the Training set and Test set# from sklearn.model_selection import train_test_split# X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.2)# X_test, X_CV, y_test, y_CV = train_test_split(X, y, test_size = 0.5)# # Feature Scaling# from sklearn.preprocessing import StandardScaler# sc = StandardScaler()# X_train = sc.fit_transform(X_train)# X_test = sc.transform(X_test)# X_train = X_train.T# X_test = X_test.T# X_CV = X_CV.Tdef sigmoid(z) : """ Reutrns the element wise sigmoid function. """ return 1./(1 + np.exp(-z))def sigmoid_prime(z) : """ Returns the derivative of the sigmoid function. """ return sigmoid(z)*(1-sigmoid(z))def ReLU(z) : """ Reutrns the element wise ReLU function. """ return (z*(z > 0))def ReLU_prime(z) : """ Returns the derivative of the ReLU function. """ return 1*(z>=0)def lReLU(z) : """ Reutrns the element wise leaky ReLU function. """ return np.maximum(z/100,z)def lReLU_prime(z) : """ Returns the derivative of the leaky ReLU function. """ z = 1*(z>=0) z[z==0] = 1/100 return zdef tanh(z) : """ Reutrns the element wise hyperbolic tangent function. """ return np.tanh(z)def tanh_prime(z) : """ Returns the derivative of the tanh function. """ return (1-tanh(z)**2)# A dictionary of our activation functionsPHI = {'sigmoid':sigmoid, 'relu':ReLU, 'lrelu':lReLU, 'tanh':tanh}# A dictionary containing the derivatives of our activation functionsPHI_PRIME = {'sigmoid':sigmoid_prime, 'relu':ReLU_prime, 'lrelu':lReLU_prime, 'tanh':tanh_prime}class NeuralNet : """ This is a class for making Artificial Neural Networks. L2 and Droupout are the default regularization methods implemented in this class. It takes the following parameters: 1. layers : A python list containing the different number of neurons in each layer. (containing the output layer) Eg - [64,32,16,16,1] 2. X : Matrix of features with rows as features and columns as different examples. 3. y : Numpy array containing the ouputs of coresponding examples. 4. ac_funcs : A python list containing activation function of each layer. Eg - ['relu','relu','lrelu','tanh','sigmoid'] 5. init_method : Meathod to initialize weights of the network. Can be 'gaussian','random','zeros'. 6. loss_func : Currently not implemented 7. W : Weights of a pretrained neural network with same architecture. 8. W : Biases of a pretrained neural network with same architecture. """ def __init__(self, layers, X, y, ac_funcs, init_method='gaussian', loss_func='b_ce', W=np.array([]), B=np.array([])) : """ Initialize the network. """ # Store the layers of the network self.layers = layers # ---- self.W = None self.B = None # Store the number of examples in the dataset as m self.m = X.shape[1] # Store the full layer list as n self.n = [X.shape[0], *layers] # Save the dataset self.X = X # Save coresponding output self.y = y # List to store the cost of the model calculated during training self.cost = [] # Stores the accuracy obtained on the test set. self.acc = 0 # Activation function of each layer self.ac_funcs = ac_funcs self.loss = loss_func # Inittialize the weights by provided methods if not provided. if len(W) and len(B) : self.W = W self.B = B else : if init_method=='gaussian': self.W = [np.random.randn(self.n[nl], self.n[nl-1]) for nl in range(1,len(self.n))] self.B = [np.zeros((nl,1), 'float32') for nl in self.layers] elif init_method == 'random': self.W = [np.random.rand(self.n[nl], self.n[nl-1]) for nl in range(1,len(self.n))] self.B = [np.random.rand(nl,1) for nl in self.layers] elif init_method == 'zeros': self.W = [np.zeros((self.n[nl], self.n[nl-1]), 'float32') for nl in range(1,len(self.n))] self.B = [np.zeros((nl,1), 'float32') for nl in self.layers] def startTraining(self, epochs, alpha, _lambda, keep_prob=0.5, interval=100): """ Start training the neural network. It takes the followng parameters : 1. epochs : Number of epochs for which you want to train the network. 2. alpha : The learning rate of your network. 3. _lambda : L2 regularization parameter or the penalization parameter. 4. keep_prob : Dropout regularization parameter. The probability of neurons to deactivate. Eg - 0.8 means 20% of the neurons have been deactivated. 5. interval : The interval between updates of cost and accuracy. """ start = time.time() for i in range(epochs+1) : z,a = self._feedForward(keep_prob) delta = self._cost_derivative(a[-1]) for l in range(1,len(z)) : delta_w = np.dot(delta, a[-l-1].T) + (_lambda)*self.W[-l] delta_b = np.sum(delta, axis=1, keepdims=True) delta = np.dot(self.W[-l].T, delta)*PHI_PRIME[self.ac_funcs[-l-1]](z[-l-1]) self.W[-l] = self.W[-l] - (alpha/self.m)*delta_w self.B[-l] = self.B[-l] - (alpha/self.m)*delta_b delta_w = np.dot(delta, self.X.T ) + (_lambda)*self.W[0] delta_b = np.sum(delta, axis=1, keepdims=True) self.W[0] = self.W[0] - (alpha/self.m)*delta_w self.B[0] = self.B[0] - (alpha/self.m)*delta_b if not i%interval : aa = self.predict(self.X) if self.loss == 'b_ce': aa = aa > 0.5 self.acc = sum(sum(aa == self.y)) / self.m cost_val = self._cost_func(a[-1], _lambda) self.cost.append(cost_val) elif self.loss == 'c_ce': aa = np.argmax(aa, axis = 0) yy = np.argmax(self.y, axis = 0) self.acc = np.sum(aa==yy)/(self.m) cost_val = self._cost_func(a[-1], _lambda) self.cost.append(cost_val) sys.stdout.write(f'Epoch[{i}] : Cost = {cost_val:.2f} ; Acc = {(self.acc*100):.2f}% ; Time Taken = {(time.time()-start):.2f}s') print('') return None def predict(self, X_test) : """ Predict the labels for a new dataset. Returns probability. """ a = PHI[self.ac_funcs[0]](np.dot(self.W[0], X_test) + self.B[0]) for l in range(1,len(self.layers)): a = PHI[self.ac_funcs[l]](np.dot(self.W[l], a) + self.B[l]) return a def _feedForward(self, keep_prob): """ Forward pass """ z = [];a = [] z.append(np.dot(self.W[0], self.X) + self.B[0]) a.append(PHI[self.ac_funcs[0]](z[-1])) for l in range(1,len(self.layers)): z.append(np.dot(self.W[l], a[-1]) + self.B[l]) # a.append(PHI[self.ac_funcs[l]](z[l])) _a = PHI[self.ac_funcs[l]](z[l]) a.append( ((np.random.rand(_a.shape[0],1) < keep_prob)*_a)/keep_prob ) return z,a def _cost_func(self, a, _lambda): """ Binary Cross Entropy Cost Function """ return ( (-1/self.m)*np.sum(np.nan_to_num(self.y*np.log(a) + (1-self.y)*np.log(1-a))) + (_lambda/(2*self.m))*np.sum([np.sum(i**2) for i in self.W]) ) def _cost_derivative(self, a) : """ The derivative of cost w.r.t z """ return (a-self.y) @property def summary(self) : return self.cost, self.acc, self.W,self.B def __repr__(self) : return f''# Initializing our neural networkneural_net_sigmoid = NeuralNet([32,16,1], X_train, y_train, ac_funcs = ['relu','relu','sigmoid'])# Staring the training of our network.neural_net_sigmoid.startTraining(5000, 0.01, 0.2, 0.5, 100)# Predicting on new dataset using our trained network.preds = neural_net_sigmoid.predict(X_test)preds = preds > 0.5acc = (sum(sum(preds == y_test)) / y_test.size)*100# Accuracy (metric of evaluation) obtained by the network.print(f'Test set Accuracy ( r-t-s ) : {acc}%')# Plotting our cost vs epochs relationshipsigmoid_summary = neural_net_sigmoid.summaryplt.plot(range(len(sigmoid_summary[0])), sigmoid_summary[0], label='Sigmoid Cost')plt.title('Cost')plt.show()# Comparing our results with the library keras.from keras.models import Sequentialfrom keras.layers import DenseX_train, X_test = X_train.T, X_test.Tclassifier = Sequential()classifier.add(Dense(input_dim=4, units = 32, kernel_initializer="uniform 創(chuàng)作挑戰(zhàn)賽新人創(chuàng)作獎(jiǎng)勵(lì)來咯,堅(jiān)持創(chuàng)作打卡瓜分現(xiàn)金大獎(jiǎng)

    總結(jié)

    以上是生活随笔為你收集整理的人工神经网络_制作属于自己的人工神经网络的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問題。

    如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

    天堂网av 在线| 奇米7777狠狠狠琪琪视频 | 国产99久久久久久免费看 | 91黄色视屏| 91福利免费 | 欧美少妇xx | 国产福利精品在线观看 | 中文字幕黄色网 | 96亚洲精品久久 | 91精品在线免费观看视频 | 久久 在线 | 日韩亚洲国产中文字幕 | 精品国产诱惑 | 婷婷丁香色综合狠狠色 | 日韩精品中文字幕在线播放 | 国产成人777777 | 亚洲人精品午夜 | 亚洲第一av在线播放 | 又黄又刺激的视频 | 久操伊人 | 人人爽人人爽人人爽人人爽 | 99视频在线观看一区三区 | 国产婷婷精品av在线 | 91成人网页版 | 久久视频免费观看 | 国产三级视频在线 | av在线免费观看不卡 | 国产精品美女在线观看 | av在线精品 | 国产韩国日本高清视频 | 一区二区三区高清不卡 | 日韩高清黄色 | 午夜一级免费电影 | 又色又爽又黄高潮的免费视频 | 日日夜夜精品免费视频 | 在线看毛片网站 | 亚洲最新av网址 | 97国产在线播放 | 久久这里精品视频 | av免费网站观看 | 97电影网手机版 | 久久成人免费 | 欧美另类人妖 | 正在播放 久久 | 国产日产高清dvd碟片 | 成人国产亚洲 | 日韩精品一区二区免费视频 | 六月天综合网 | 亚洲婷婷丁香 | 国产黄色片久久久 | 国产亚洲视频在线 | 日韩网站免费观看 | 99视频精品视频高清免费 | 国产国语在线 | 亚洲 中文 欧美 日韩vr 在线 | 一区在线观看 | av在线电影播放 | 国精产品一二三线999 | 超碰资源在线 | 五月婷婷综合激情网 | 国产亚洲日本 | 国产一级久久久 | 国产精品久久嫩一区二区免费 | 日韩精品免费在线观看 | 日本久久免费视频 | 麻豆传媒电影在线观看 | 国产精品女人网站 | 91高清不卡 | 日韩一区在线播放 | 一区二区不卡在线观看 | 日韩欧美一区二区三区免费观看 | 欧美日韩亚洲在线观看 | 精品亚洲va在线va天堂资源站 | 亚洲精品国偷拍自产在线观看 | 182午夜在线观看 | 最近中文国产在线视频 | 99视频久久 | 国内精品久久久久久久 | 国产一级在线免费观看 | 福利一区二区 | 亚洲婷婷免费 | 免费亚洲精品视频 | 日韩欧美国产激情在线播放 | 91精品国产高清 | 999久久精品| 少妇高潮流白浆在线观看 | 免费在线观看一级片 | 国产精品免费观看久久 | 成人全视频免费观看在线看 | 在线观看91av | 天天操操 | 精品国产一区二区三区久久久蜜月 | 色综合久久88色综合天天人守婷 | 欧美日韩国产色综合一二三四 | 97看片吧 | 精品欧美一区二区三区久久久 | 99精品福利| 性色av免费在线观看 | 日韩,中文字幕 | 啪啪凸凸 | 最新精品视频在线 | 久草在线视频中文 | 综合色婷婷| 国产成人三级一区二区在线观看一 | 操高跟美女 | 久久久久国| 国产精品99久久久久的智能播放 | 国产亚洲欧洲 | 青青河边草手机免费 | 日日射天天射 | 麻豆成人小视频 | 99热 精品在线 | 日韩精品久久久久久久电影竹菊 | 欧美一级在线 | 久久经典国产 | 亚洲另类交 | 欧美日本三级 | 国产.精品.日韩.另类.中文.在线.播放 | 久久久久久久久亚洲精品 | 美女视频黄免费网站 | 色婷婷综合久久久久中文字幕1 | 777xxx欧美 | 99国产成+人+综合+亚洲 欧美 | 精品久久久久久久久久久久久 | 99在线观看免费视频精品观看 | 国产第一页福利影院 | 91色蜜桃 | 99九九视频| 黄色片网站av | 国产精品6999成人免费视频 | 美女视频黄频 | 五月天色网站 | 一级电影免费在线观看 | 日本视频久久久 | 久久久久久久久久久久久国产精品 | 天堂网在线视频 | 免费看污网站 | 亚洲精品中文在线资源 | 亚洲最新视频在线播放 | 日韩av影视在线观看 | 香蕉视频久久 | 我要看黄色一级片 | 在线国产91 | 麻花天美星空视频 | www.久久精品视频 | 91大神免费在线观看 | 久久综合毛片 | 亚洲激情中文 | 日韩av网站在线播放 | 国产一二三精品 | 最新av免费在线 | 在线小视频你懂得 | 久久视频6 | 综合婷婷久久 | 欧美极品xxxx | 中文字幕在线观看视频一区二区三区 | 一区二区三区不卡在线 | 精品黄色在线观看 | 久久精品一区二区三区国产主播 | 丁香5月婷婷 | 国产精品99爱 | 免费网站在线观看人 | 精品视频999 | 深爱综合网 | 国产精品原创av片国产免费 | 国产精品一区二区av | 国产成人久久精品亚洲 | 最近字幕在线观看第一季 | 五月天激情电影 | 九九热免费精品视频 | 国产一区二区三区午夜 | 久久精品网站免费观看 | 精品久久久亚洲 | 91亚洲精品国偷拍自产在线观看 | 91精品999| 一级片视频免费观看 | 综合成人在线 | 欧美精品一区在线 | 国产又粗又猛又爽 | 成人av一区二区兰花在线播放 | 狠狠色狠狠色 | 久久这里只有精品9 | 日韩欧美精品在线观看 | 欧美国产日韩一区二区 | 免费av网址在线观看 | 国产精品乱码一区二区视频 | 成年免费在线视频 | 日韩久久视频 | 午夜精品久久久久久久99无限制 | av千婊在线免费观看 | 久久视频国产精品免费视频在线 | 国产91国语对白在线 | 国产精品国产三级国产 | www激情久久 | 日本在线观看视频一区 | 狠狠色噜噜狠狠狠狠2021天天 | 日韩国产高清在线 | 97电影在线看视频 | 久热久草在线 | 99视频免费播放 | 久久天堂精品视频 | 天天干天天干天天射 | 免费在线激情电影 | 九九视频网 | 久精品视频| 国产中年夫妇高潮精品视频 | 国内精品久久久久影院优 | 日日干美女 | 久久久久久国产精品免费 | 一区二区影视 | 天天干.com | 免费观看成年人视频 | bbbbb女女女女女bbbbb国产 | 国产精品久久久久久久久岛 | 久草在线网址 | 日本丶国产丶欧美色综合 | 国产在线不卡 | 尤物97国产精品久久精品国产 | 麻豆91精品91久久久 | 精品视频久久久 | 不卡av在线免费观看 | 成年人免费在线观看 | 日韩精选在线 | 久久成人国产精品一区二区 | 国内精品国产三级国产aⅴ久 | 亚洲免费视频观看 | 国产一区二区高清 | 五月天综合 | 国产精品毛片一区 | 99一级片 | 国产一卡二卡在线 | 天天干天天操天天射 | 欧美国产不卡 | av网站有哪些 | 欧美日韩国产精品一区 | 欧美日韩成人一区 | 精品96久久久久久中文字幕无 | 天天综合精品 | 久久精品国产第一区二区三区 | 免费成人黄色片 | 天天看天天操 | 色综合久久久久久久 | 久久国产亚洲 | 国产高清精品在线观看 | 国产成人久久久77777 | 在线观看av网 | 精品亚洲欧美一区 | 天天综合精品 | 国内外成人在线视频 | 天堂资源在线观看视频 | 色之综合网 | 成年人网站免费在线观看 | 狠狠操狠狠干2017 | av中文国产| 99在线视频播放 | 国产精品美女免费看 | 黄视频色网站 | 国产精品久久一区二区三区不卡 | 日韩a在线看 | 在线播放一区二区三区 | 麻豆91在线观看 | 综合av在线 | 91九色九色 | 国产亚洲午夜高清国产拍精品 | 欧美另类性 | 97激情影院 | 一级免费黄视频 | 成人毛片在线观看视频 | 西西444www大胆无视频 | 成人av在线直播 | 欧美成人理伦片 | 免费在线观看亚洲视频 | 黄网站a| 国产小视频精品 | a√天堂中文在线 | 国产不卡在线播放 | 精品欧美在线视频 | 亚洲欧美日韩国产一区二区三区 | 久久久 精品 | 婷婷网站天天婷婷网站 | 很污的网站 | 久久综合之合合综合久久 | 久久久精品影视 | 热精品 | 亚洲清纯国产 | 开心丁香婷婷深爱五月 | 国产精品手机在线播放 | 亚洲专区欧美专区 | 久久私人影院 | 怡红院成人在线 | 久久午夜电影院 | 国产成人精品久久久久蜜臀 | 亚洲日日射 | 亚洲男男gaygay无套 | 国产一级片一区二区三区 | 91探花在线 | 99精品热视频 | 最新免费av在线 | 国产在线a视频 | 粉嫩高清一区二区三区 | 天天爱天天舔 | 国产激情电影综合在线看 | 亚洲精品自在在线观看 | 人人澡人人爽欧一区 | 精品国产乱码久久久久久1区2匹 | 中文字幕在线观看免费 | 欧美国产精品久久久久久免费 | 在线观看国产区 | 国产亚洲久一区二区 | 六月激情丁香 | av黄免费看 | 国偷自产中文字幕亚洲手机在线 | 日韩中文字幕免费在线播放 | aav在线| 一区二区三区在线免费播放 | 亚洲色图27p| 久久精品99久久 | 久久在线视频精品 | 亚洲黄色高清 | 亚洲精品午夜一区人人爽 | 天天综合网在线观看 | 国产高清日韩 | 久久亚洲私人国产精品 | 91传媒激情理伦片 | 婷婷色综合 | 久久久久久视频 | 毛片播放网站 | 丁香激情婷婷 | 欧美在线一二区 | 亚洲成人精品av | 91精品久久香蕉国产线看观看 | 免费看毛片网站 | av高清在线| 在线视频欧美精品 | 91视频免费看片 | 99视频一区二区 | 天天鲁一鲁摸一摸爽一爽 | 中文字幕 国产视频 | 久久人人爽视频 | 国产手机在线精品 | 国产精品一区二区三区久久 | 日日躁夜夜躁aaaaxxxx | 亚洲日本韩国一区二区 | 国产一区在线播放 | 久久精品国产一区二区三区 | 在线观看日韩 | 久久久高清视频 | 久久在线免费视频 | 一区二区三区手机在线观看 | 久草在线资源免费 | 亚洲精品在线电影 | 91成人看片 | 天堂av最新网址 | 在线免费看黄色 | 日韩免费视频网站 | 日本论理电影 | 色综合久久天天 | 五月婷婷欧美视频 | 日韩精品一卡 | 成年人免费看 | 成人久久 | 蜜桃视频日韩 | 亚洲桃花综合 | 婷婷久操 | 国产精品免费看久久久8精臀av | 又黄又刺激的网站 | 日韩电影在线观看一区二区 | 欧美激情综合五月色丁香小说 | 婷婷色六月天 | 国产精品福利av | 九草视频在线观看 | 日韩在线观看高清 | 国产精品久久久久久久久久免费看 | 国产69精品久久app免费版 | 日日夜夜人人天天 | 国产精品av在线免费观看 | 国产成人一区二区三区久久精品 | 人人爱人人做人人爽 | 成人在线视频网 | 成人国产精品久久久久久亚洲 | 久久久www成人免费精品张筱雨 | 日韩一区二区三区免费视频 | 久久人人爽爽人人爽人人片av | 国产99久久久精品视频 | 91在线小视频 | 天天综合日 | 久久久久久福利 | 黄色免费视频在线观看 | 日本精品一二区 | 天天色影院 | 国产成人精品一二三区 | 亚洲专区欧美 | 色综合天天狠天天透天天伊人 | 中文字幕一区二区三区四区视频 | 免费a视频在线观看 | 日韩精品欧美精品 | 在线免费观看黄色av | 国产精品18毛片一区二区 | 91视频大全 | 久久人视频 | 亚洲一区二区三区四区在线视频 | 亚洲五月婷婷 | 日日爱网址 | 狠狠久久 | 国产一区电影在线观看 | 婷婷色网视频在线播放 | 免费电影一区二区三区 | 久久精品视频免费 | 99视频网站 | 99久久99视频| 开心激情久久 | 天天干国产 | 日韩免费电影网站 | 2023亚洲精品国偷拍自产在线 | 成片视频在线观看 | 免费高清男女打扑克视频 | 日韩av网站在线播放 | 久久99热精品这里久久精品 | 在线观看视频h | 樱空桃av | 一区二区视频在线播放 | 韩日电影在线 | 久久精品—区二区三区 | 性色av一区二区三区在线观看 | 人人爽人人爽人人片av | 中文字幕在线观看视频网站 | 国产福利资源 | 丁香花在线视频观看免费 | 最新精品国产 | 成人毛片久久 | 久久久久亚洲精品男人的天堂 | 日本在线观看中文字幕 | 国产精品乱码久久 | 成人黄色电影在线观看 | 91天天操 | 97超碰在线久草超碰在线观看 | 蜜臀久久99精品久久久无需会员 | 国产中文字幕一区 | 国产亚洲精品久久久网站好莱 | 国产精品嫩草影视久久久 | 色婷婷婷| 午夜影视一区 | 91亚洲精品久久久蜜桃网站 | 综合久久久 | 欧美淫aaa免费观看 日韩激情免费视频 | 免费在线中文字幕 | 久久精品一二三区白丝高潮 | 国产黄色片久久久 | 亚洲精品高清在线观看 | 在线免费av网站 | 日日操狠狠干 | av三级av| 久久99精品国产麻豆宅宅 | 一区二区三区精品在线视频 | 免费在线激情电影 | 大型av综合网站 | 午夜国产在线观看 | 国产天天综合 | 中文在线最新版天堂 | 激情深爱五月 | 亚洲综合五月 | 91中文字幕一区 | 热99在线视频 | 黄在线免费观看 | 一区二区不卡视频在线观看 | 久久国产亚洲视频 | 最新av在线网站 | 亚洲精品网站在线 | 9999在线观看 | 500部大龄熟乱视频使用方法 | 午夜天使 | 91精品国产自产在线观看永久 | 天天操天天色天天射 | 日韩欧美精品在线观看视频 | 91精品对白一区国产伦 | 久久美女视频 | 久久久私人影院 | 成年人在线电影 | 国产综合福利在线 | 免费热情视频 | 亚洲视频axxx | 97视频在线观看网址 | 国产日韩精品一区二区三区 | 蜜臀久久99精品久久久无需会员 | 国产精品无av码在线观看 | 精品国模一区二区三区 | 欧美国产高清 | 久久精品网站免费观看 | 人人爽人人片 | 狠狠的操你 | 国产伦理久久 | 色香蕉在线 | 成人福利av| 久久av伊人 | 在线a人v观看视频 | 成人精品一区二区三区电影免费 | 中文字幕在线一二 | 看污网站 | 成人午夜电影免费在线观看 | 国产精品99蜜臀久久不卡二区 | 免费黄a | 在线免费av网 | www.888.av | 免费av视屏 | 天天干夜夜擦 | 又黄又爽又无遮挡的视频 | 欧美激情视频三区 | 亚洲在线视频免费观看 | 亚洲九九 | 国产在线观看不卡 | 亚洲欧美精品一区 | 国产二区免费视频 | 黄色的视频 | 久久久污 | 亚洲精品国产品国语在线 | 国产涩涩在线观看 | 免费看污在线观看 | 亚洲精品免费在线视频 | 人人玩人人添人人澡超碰 | 亚洲午夜不卡 | 日韩中文字幕在线看 | 精品久久久久久国产偷窥 | 国产午夜亚洲精品 | 国产成人性色生活片 | 国产又粗又猛又黄又爽视频 | 福利视频入口 | 亚洲色影爱久久精品 | 日韩毛片精品 | 黄色视屏在线免费观看 | 日韩精品中文字幕久久臀 | 日韩欧美有码在线 | 国产精品18久久久久白浆 | av不卡网站 | 三级在线国产 | 午夜精品久久一牛影视 | 午夜精品999 | 久久久免费毛片 | 久福利| a黄色片| 国产小视频免费在线网址 | 国产精品久久久久久久久久东京 | 黄色成年片| 久久玖 | 久久99欧美| 国产成人在线网站 | 久久蜜桃av | 免费特级黄色片 | 麻豆视频在线免费观看 | 免费看搞黄视频网站 | 亚洲精品天天 | 国产在线中文 | 天天玩天天干天天操 | 91视视频在线直接观看在线看网页在线看 | 成人影视免费 | 亚洲精品啊啊啊 | 亚洲精品mv在线观看 | 久久久久久久久久久免费 | 国产一区二区三区午夜 | 日韩免费在线一区 | 黄色一级免费电影 | 97成人在线免费视频 | 久久久在线免费观看 | 综合天堂av久久久久久久 | 国产精品视频大全 | 国产亚洲精品久久久久久 | 色婷婷播放| 91黄色成人| 色综合欧洲 | 日韩高清免费在线观看 | 91人人干 | 麻豆视频免费网站 | 天天插天天爱 | 国产美女在线免费观看 | 超碰官网| 中文字幕a∨在线乱码免费看 | 国产精品日韩在线播放 | 男女精品久久 | www.狠狠色.com | 国产小视频在线免费观看 | 日日夜夜人人精品 | 中文字幕中文字幕在线中文字幕三区 | av在线8| 精品久久久久一区二区国产 | 精品亚洲免费 | 五月天婷婷丁香花 | 免费日韩高清 | 就要色综合 | 深爱综合网| 一区二区精品国产 | 国产黄a三级三级三级三级三级 | 免费日韩电影 | 96精品在线 | 99久热在线精品视频观看 | 狠色狠色综合久久 | 草久中文字幕 | 久久99免费 | 97品白浆高清久久久久久 | 亚洲日韩精品欧美一区二区 | 最近免费中文字幕mv在线视频3 | 欧美少妇xx| 日韩网站在线观看 | 亚洲精品一区二区三区新线路 | 在线观看中文字幕亚洲 | 精品亚洲国产视频 | 日韩久久午夜一级啪啪 | 国产精品九九九九九 | 亚洲成人av电影在线 | 黄色网在线免费观看 | 亚洲精品福利在线 | 免费看十八岁美女 | 国产高清小视频 | 国产一区二区高清不卡 | 天天摸天天操天天舔 | 亚洲视频一区二区三区在线观看 | 免费看三片 | 久久69精品久久久久久久电影好 | 国内精品久久久久久久久久久久 | 精品久久一二三区 | 人人舔人人干 | 成人久久18免费网站 | 精品久久久久久综合 | 五月天久久久 | 国产999视频| 国产理论片在线观看 | 五月天网站在线 | 偷拍精偷拍精品欧洲亚洲网站 | 国产精品免费久久久久久久久久中文 | 国产香蕉久久 | 久久久www成人免费精品 | 深夜免费小视频 | 成人一区二区在线 | 日韩色一区二区三区 | 欧美在线视频一区二区三区 | 日韩欧美精品在线观看 | 精品久久1| 99热最新精品 | 久久久久久久久久久久久9999 | 韩国av免费 | 中文国产在线观看 | 97成人免费 | 国产精品女同一区二区三区久久夜 | 99在线观看精品 | 国产午夜精品在线 | 久久草网 | 91精品视频网站 | 国产黄色av | 精品久久精品久久 | 国产精品免费在线播放 | 中文字幕在线影视资源 | 亚洲激情在线播放 | 看黄色91 | www日| 日韩中文字幕国产精品 | 99久免费精品视频在线观看 | 国产精品第2页 | 蜜桃视频在线视频 | 一区 二区 精品 | 久久国产精品久久久 | 亚洲每日更新 | 韩国av电影在线观看 | 欧美aaaxxxx做受视频 | 久久久久久蜜av免费网站 | 97国产精品视频 | 国产99久久精品 | 欧美亚洲精品在线观看 | 天天操天天色天天射 | 日日夜夜天天操 | 日韩精品免费在线视频 | 日韩高清久久 | 成年人在线免费看视频 | av免费试看 | 视频在线99 | 亚洲aⅴ一区二区三区 | 成年人精品 | 国产无遮挡又黄又爽馒头漫画 | 色综合 久久精品 | 国产成人在线综合 | 久久婷婷一区 | 国产午夜精品一区二区三区欧美 | 91亚·色 | 亚洲第一区在线观看 | 一区二区视 | 黄色大片国产 | 久久久影视| 欧美国产不卡 | 黄色aaa级片 | 国产精品99久久久久久有的能看 | 天天艹天天 | 久久精品久久久久电影 | 欧美一级电影免费观看 | 国产麻豆电影在线观看 | 国产中文视频 | 中文字幕中文字幕 | 色综合久久久久久久 | 999久久国产精品免费观看网站 | 天天曰 | 最近高清中文字幕在线国语5 | 日韩免费二区 | 91成人精品一区在线播放69 | 国产成人精品网站 | a天堂在线看 | 免费看v片| 69视频网站 | 国产成免费视频 | 黄色www| 99精品久久久久久久久久综合 | 色网站在线看 | 久久99国产精品免费网站 | 日韩精品久久久久久 | www.伊人网| 欧美一级激情 | 成人av电影免费观看 | 亚洲国产精品激情在线观看 | 九九有精品 | 国产成人精品一区二区三区在线观看 | 久久免费福利 | 成人91在线| 国产精品一区二区在线 | 亚洲国产合集 | 亚洲乱码国产乱码精品天美传媒 | 天天干天天干天天干天天干天天干天天干 | 日韩在线视频二区 | 五月婷网站| 亚洲六月丁香色婷婷综合久久 | 天天天干天天射天天天操 | 在线观看日本高清mv视频 | 极品久久久 | 国产欧美中文字幕 | 国产网站在线免费观看 | 69性欧美 | 美女激情影院 | 日韩伦理片一区二区三区 | 亚州精品天堂中文字幕 | 亚洲午夜激情网 | www.黄色片网站 | 天天干天天草 | 五月婷婷黄色 | 五月婷婷在线观看视频 | 日韩视频a | 夜添久久精品亚洲国产精品 | 国产精品免费久久久久 | 中文字幕高清有码 | 涩涩色亚洲一区 | 国产精品99久久久精品 | 色婷婷综合久久久中文字幕 | 久久精品爱爱视频 | 国产黄视频在线观看 | 精品一区二区三区在线播放 | av成年人电影 | 国产三级国产精品国产专区50 | 超碰最新网址 | 波多野结衣在线播放一区 | 夜夜夜草| 高清av免费看 | 欧美日韩亚洲在线观看 | 98超碰在线 | 丁香影院在线 | 成人午夜电影免费在线观看 | 免费黄色a网站 | 免费网站在线观看人 | 午夜国产一区二区三区四区 | 波多野结衣在线观看视频 | 国产一区二区在线免费 | 成人av免费在线 | 久久福利精品 | 久草免费在线视频 | 在线电影播放 | www.久久爱.cn | 国产小视频在线免费观看 | 国产精品va | 久久99久久99精品免观看粉嫩 | 久久综合久久综合这里只有精品 | 国产免费观看久久黄 | 午夜av剧场 | 三级黄色片在线观看 | 91精品久久久久久久久久久久久 | 成人国产精品入口 | 国产精品久久久久久久久久久久 | 欧美综合干 | 91香蕉嫩草 | 香蕉视频网址 | 91超级碰| 九九热在线播放 | 国产高清免费在线观看 | 超碰人人在线观看 | 一区二区三区精品在线视频 | 又黄又爽又湿又无遮挡的在线视频 | 国色天香av | 91香蕉视频好色先生 | 亚洲少妇影院 | 十八岁以下禁止观看的1000个网站 | 麻豆国产网站入口 | 成人动漫精品一区二区 | 一区二区三区在线观看免费视频 | 婷婷在线网| 97碰碰碰| 久久成人精品电影 | 亚洲黄色大片 | 天天操天天干天天爽 | 欧美在线观看视频免费 | 丁香免费视频 | 欧美日韩xxxxx| 国产精品一区二区精品视频免费看 | 超碰在线人人爱 | 日韩久久一区 | 国产成人在线观看 | 亚洲免费一级电影 | 国产免费黄视频在线观看 | 波多野结衣亚洲一区二区 | 91女子私密保健养生少妇 | 亚洲欧洲精品一区二区 | 精品亚洲国产视频 | 一二三区视频在线 | 三级在线国产 | 日韩网站免费观看 | 久久精品—区二区三区 | 国产中年夫妇高潮精品视频 | 夜夜摸夜夜爽 | 亚洲一级久久 | 91精品视频观看 | 日韩中文在线视频 | 免费观看全黄做爰大片国产 | 日日爽天天 | 国产91成人 | 午夜精品一区二区三区可下载 | 日韩精品亚洲专区在线观看 | 国产精品久久久久久吹潮天美传媒 | 91在线中文 | 激情综合网五月激情 | 91尤物国产尤物福利在线播放 | 免费看黄的 | 国产在线播放观看 | 欧美网站黄色 | 国产视频亚洲视频 | 一性一交视频 | 国产欧美中文字幕 | 瑞典xxxx性hd极品 | 国产精品一区二区三区在线播放 | 日本成人免费在线观看 | 成人免费视频网站 | 超碰成人免费电影 | 婷婷九月激情 | 久久蜜桃av | 国产亚洲成人网 | 天天色视频| 久久毛片网站 | 99久久精品国产观看 | 日日狠狠 | 成人免费视频网 | 日韩在线免费小视频 | 玖玖视频网 | 国产视频一区二区在线 | 不卡的av电影在线观看 | 亚洲美女免费精品视频在线观看 | 97小视频 | 日韩精品一区二区三区第95 | 亚洲精品午夜aaa久久久 | 久草久视频 | 天天草天天干天天 | 亚洲人视频在线 | 国产精品a久久久久 | 久久精品系列 | 国产精品资源网 | 99中文视频在线 | 蜜臀aⅴ国产精品久久久国产 | 毛片基地黄久久久久久天堂 | 国产裸体视频网站 | 久久久久麻豆v国产 | 国产精品视频不卡 | 日韩亚洲国产精品 | 亚洲黄色av网址 | 中日韩欧美精彩视频 | 国产99久久久国产精品免费看 | 国产成人精品三级 | 九九热久久免费视频 | 五月婷婷综合激情网 | 色婷婷综合成人av | 天堂av免费观看 | 成人免费观看网址 | 国产 日韩 在线 亚洲 字幕 中文 | 色综合天天综合 | 91视视频在线直接观看在线看网页在线看 | 久久视频在线免费观看 | 日本激情动作片免费看 | 日韩在线观看你懂的 | 91av短视频| 精品一区二区久久久久久久网站 | 日韩最新理论电影 | www.大网伊人| 丝袜一区在线 | 在线观看91| 97精产国品一二三产区在线 | 亚洲高清精品在线 | 欧美精品视 | aaa毛片视频 | 激情久久综合网 | 国产一区二区三区在线 | 中文字幕之中文字幕 | 国产精品第二页 | 日韩视频免费观看高清完整版在线 | 中文字幕在线观看资源 | 51久久夜色精品国产麻豆 | 99久久精品视频免费 | 亚洲另类在线视频 | 亚洲1区 在线 | 99热超碰 | 免费亚洲片 | 四虎影视成人精品国库在线观看 | 伊人久久五月天 | 国内精品久久久久 | 热久久视久久精品18亚洲精品 | 日韩成人免费在线电影 | 毛片网在线观看 | 成人黄色电影在线播放 | 国产亚洲精品久久久久5区 成人h电影在线观看 | 一区二区激情 | 91av视频网站 | 精品视频成人 | 亚洲视频一级 | 丁香综合激情 | 久久国产美女视频 | 九九九热精品免费视频观看 | 亚洲激情六月 | 激情欧美一区二区三区免费看 | 在线观看第一页 | 欧美在线你懂的 | 国产美女永久免费 | 久久精品视频在线观看 | 婷婷色站| 免费黄色网止 | 青青草国产精品视频 | 中文字幕资源网 | 91在线一区二区 | 亚洲成a人片77777潘金莲 | 成片免费| 深爱激情综合网 | 成人黄色电影免费观看 | 丝袜护士aⅴ在线白丝护士 天天综合精品 | 91污污视频在线观看 | 日本中文字幕在线电影 | 成人av免费看| 日韩精品一区二区三区丰满 | 日本精品va在线观看 | 天天干天天操天天爱 | av黄色免费在线观看 | 91av在线免费 | 久久免费片 | 超碰在线1| 日日射av| 亚洲高清视频在线播放 | 日韩在线观看免费 | 美女网站在线看 | 99久久精品国产亚洲 | 一级久久精品 | 欧美一区日韩一区 | 亚洲一区二区精品在线 | 九九久久免费 | 欧美在线久久 | 成年人免费看片网站 | www久久九 | 国产理论一区二区三区 | 99国产在线 | 黄网站免费大全入口 | 国产一区二区电影在线观看 | 色av男人的天堂免费在线 | 69av在线播放| 免费a视频在线观看 | 亚州精品成人 | 91一区啪爱嗯打偷拍欧美 | 国产精品久久久久久久久久尿 | 免费观看一级特黄欧美大片 | 亚洲一二三在线 | 播五月综合 | 国产精品女主播一区二区三区 | 午夜精品一区二区三区在线播放 | 91视频亚洲 | 久久久免费看视频 | 亚洲艳情| 黄色1级大片 | 91精品入口| 天天躁天天操 | 亚洲电影一区二区 | 91精品国产一区二区在线观看 | 色噜噜色噜噜 | 亚洲狠狠婷婷综合久久久 | 免费看国产曰批40分钟 | 久久三级毛片 | 久久成人综合 | av高清一区 | 国产色女 | 日韩精品一区二区免费视频 | 精品久久久久久久久久久久久 | 久久久久国 | 天天操天天操 | 在线观看黄色小视频 | 视频直播国产精品 | 久草在线久 | 久草视频资源 |