日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當(dāng)前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

极限学习机和支持向量机_极限学习机I

發(fā)布時(shí)間:2023/12/15 编程问答 28 豆豆
生活随笔 收集整理的這篇文章主要介紹了 极限学习机和支持向量机_极限学习机I 小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

極限學(xué)習(xí)機(jī)和支持向量機(jī)

Around 2005, A novel machine learning approach was introduced by Guang-Bin Huang and a team of researchers at Nanyang Technological University, Singapore.

2005年前后,黃光斌和新加坡南洋理工大學(xué)的一組研究人員介紹了一種新穎的機(jī)器學(xué)習(xí)方法。

This new proposed learning algorithm tends to reach the smallest training error, obtain the smallest norm of weights and the best generalization performance, and runs extremely fast, in order to differentiate it from the other popular SLFN learning algorithms, it is called the Extreme Learning Machine (ELM).

這種新提出的學(xué)習(xí)算法趨于達(dá)到最小的訓(xùn)練誤差獲得最小的權(quán)重范數(shù)最佳的泛化性能 ,并且運(yùn)行速度極快 ,以使其與其他流行的SLFN學(xué)習(xí)算法區(qū)分開來,稱為極限學(xué)習(xí)機(jī)。 (榆樹)。

This method mainly addresses the issue of far slower training time of neural networks than required, the main reasons for which is that all the parameters of the networks are tuned iteratively by using such learning algorithms. These slow-gradient based learning algorithms are extensively used to train neural networks.

該方法主要解決了神經(jīng)網(wǎng)絡(luò)的訓(xùn)練時(shí)間比所需的慢得多的問題,其主要原因是通過使用這種學(xué)習(xí)算法來迭代地調(diào)整網(wǎng)絡(luò)的所有參數(shù)。 這些基于慢梯度的學(xué)習(xí)算法被廣泛用于訓(xùn)練神經(jīng)網(wǎng)絡(luò)。

Before going into how ELM works and how is it so good, let’s see how gradient-based neural networks based off.

在探討ELM的工作原理以及它的性能如何之前,讓我們看看基于梯度的神經(jīng)網(wǎng)絡(luò)是如何建立的。

基于梯度的神經(jīng)網(wǎng)絡(luò)的演示 (Demonstration of Gradient-based Neural networks)

Below are the steps followed in a single-layered feedforward neural network in brief:

下面簡要介紹了單層前饋神經(jīng)網(wǎng)絡(luò)中的步驟:

Step 1: Evaluate Wx + B

步驟1:評(píng)估Wx + B

Step 2: Apply activation function g(Wx + B) and Compute output

步驟2:應(yīng)用激活函數(shù)g(Wx + B)并計(jì)算輸出

Step 3: Calculate Loss

步驟3:計(jì)算損失

Step 4: Compute gradients (using delta rule)

第4步:計(jì)算梯度(使用增量規(guī)則)

Step 5: Repeat

步驟5:重復(fù)

This method of propagating forward and back involves a hefty number of calculations Also if the input size is large or if there are more layers/nodes, the training takes up a significant amount of time.

這種向前和向后傳播的方法涉及大量計(jì)算。此外,如果輸入大小很大或如果有更多的層/節(jié)點(diǎn),則訓(xùn)練會(huì)占用大量時(shí)間。

fig.1. 3-layered Neural Network圖。1。 三層神經(jīng)網(wǎng)絡(luò)

In the above example, we can see for a 4 node input we require W1 (20 parameters), W2 (53 parameters), and W3 (21 parameters), i.e. 94 parameters in total. And the parameters increase rapidly with the increasing input nodes.

在上面的示例中,我們可以看到對(duì)于4節(jié)點(diǎn)輸入,我們需要W1(20個(gè)參數(shù)),W2(53個(gè)參數(shù))和W3(21個(gè)參數(shù)),即總共94個(gè)參數(shù)。 并且參數(shù)隨著輸入節(jié)點(diǎn)的增加而Swift增加。

Let’s take a real-life example of image classification of numbers with MNIST Dataset:

讓我們以MNIST數(shù)據(jù)集為例,對(duì)數(shù)字進(jìn)行圖像分類:

MNIST Example

MNIST示例

Source資源

This has a 28x28 input size i.e. 784 input nodes. For its architecture, let’s consider two layers with 128 nodes and 64 nodes, which are then classified into 10 classes. Then parameters will be:

輸入大小為28x28,即784個(gè)輸入節(jié)點(diǎn)。 對(duì)于其體系結(jié)構(gòu),讓我們考慮兩層,分別具有128個(gè)節(jié)點(diǎn)64個(gè)節(jié)點(diǎn) ,然后將它們分為10類。 然后參數(shù)將是:

  • First Layer (784, 128) = 100352 parameters

    第一層(784,128)= 100352參數(shù)
  • Second Layer (128, 64) = 8192 parameters

    第二層(128、64)= 8192個(gè)參數(shù)
  • Output Layer (64, 10) = 640 parameters

    輸出層(64、10)= 640個(gè)參數(shù)

This will give us a total of 109184 parameters. And the repeated adjustment of weights by backpropagation increases the training time by a lot.

這將給我們總共109184個(gè)參數(shù)。 而且通過反向傳播對(duì)權(quán)重進(jìn)行反復(fù)調(diào)整會(huì)大大增加訓(xùn)練時(shí)間。

And this just for a 28x28 image, consider training it for bigger input size with 10000’s of features. The training time just gets out of hand.

而這僅適用于28x28的圖片,請(qǐng)考慮使用10000項(xiàng)功能對(duì)其進(jìn)行訓(xùn)練以獲取更大的輸入大小。 培訓(xùn)時(shí)間變得一發(fā)不可收拾。

結(jié)論: (Conclusion:)

In almost all practical learning algorithms of feedforward neural networks, the conventional backpropagation method requires all these weights to be adjusted at every back-prop step.

在幾乎所有前饋神經(jīng)網(wǎng)絡(luò)的實(shí)用學(xué)習(xí)算法中,常規(guī)的反向傳播方法都需要在每個(gè)反向傳播步驟調(diào)整所有這些權(quán)重。

For most of the time, gradient-descent based strategies have been employed in varied learning algorithms of feedforward neural networks. However, it’s clear that gradient descent-based learning strategies square measure usually terribly slow because of improper learning steps or could simply converge to local minimums. And many iterative learning steps are needed by such learning algorithms so as to get higher learning performance.

在大多數(shù)情況下,前饋神經(jīng)網(wǎng)絡(luò)的各種學(xué)習(xí)算法都采用了基于梯度下降的策略。 但是,很明顯,由于學(xué)習(xí)步驟不適當(dāng),基于梯度下降的學(xué)習(xí)策略的平方測量通常非常慢,或者可能會(huì)收斂到局部最小值。 并且,這樣的學(xué)習(xí)算法需要許多迭代學(xué)習(xí)步驟,以便獲得更高的學(xué)習(xí)性能。

This makes the training far slower than required, which has been a major bottleneck for various applications.

這使培訓(xùn)速度大大慢于所需的時(shí)間,這已成為各種應(yīng)用程序的主要瓶頸。

Next Article in this series: Part II: Algorithm https://medium.com/@prasad.kumkar/extreme-learning-machines-9c8be01f6f77

本系列的下一篇文章: 第二部分:算法 https://medium.com/@prasad.kumkar/extreme-learning-machines-9c8be01f6f77

翻譯自: https://medium.com/datadriveninvestor/extreme-learning-machines-82095ee198ce

極限學(xué)習(xí)機(jī)和支持向量機(jī)

總結(jié)

以上是生活随笔為你收集整理的极限学习机和支持向量机_极限学习机I的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。

主站蜘蛛池模板: 精品久久91| 精品视频一区在线观看 | 3d动漫精品啪啪一区二区免费 | 亚洲石原莉奈一区二区在线观看 | 日本猛少妇色xxxxx | 日韩欧美一区二区三区久久婷婷 | 一区二区视 | 久久婷婷婷 | 丁香激情五月 | 亚洲深夜福利视频 | 在线免费av网 | 黄色女女| 国产内射一区二区 | 91精品免费 | 2019国产在线 | 老头巨大又粗又长xxxxx | 久久久久国产精品无码免费看 | 91精品婷婷国产综合久久竹菊 | 亚洲色图一区二区三区 | 国产一区二区免费电影 | 夜夜操综合 | 最新自拍偷拍 | 粉嫩av.com| 人妻一区二区视频 | 成人区精品一区二区婷婷 | 欧美日韩五区 | 污漫在线观看 | 成人欧美性 | 日批视频免费在线观看 | 蜜桃无码一区二区三区 | 视色网站 | 日本理论片中文字幕 | 色女人影院 | 91社区视频 | 打白嫩屁屁网站视频短裙 | 撕开少妇裙子猛然进入 | 女主播在线观看 | 一区二区有码 | 鲁啊鲁在线视频 | 男人的天堂成人 | 日本成人激情视频 | 永久免费av在线 | 欧美日韩卡一卡二 | 女女同性高清片免费看 | av在线电影网 | 东北少妇露脸无套对白 | 免费看成人片 | 长腿校花无力呻吟娇喘的视频 | 国产精品水嫩水嫩 | 亚洲经典视频 | 羞羞的网站在线观看 | 一级做a爰片久久毛片潮喷 天天透天天干 | 在线观看你懂得 | 四虎国产精品永久免费观看视频 | aaa人片在线| 在线一区二区三区视频 | 国产精品有限公司 | 日韩熟妇一区二区三区 | 蜜臀99久久精品久久久久小说 | 国模婷婷| 欧美一级二级在线观看 | 95国产精品 | jlzzjlzz国产精品久久 | 国产女人18毛片水18精 | 久久久久国产综合av天堂 | 999久久久精品视频 亚洲视频精品在线 | 久久香蕉影院 | 日韩三级大片 | 国产一级淫| 色呦呦一区二区三区 | 久久久影视| 国产精品免费91 | 久久偷看各类wc女厕嘘嘘偷窃 | 精品国产一区二区三区在线观看 | 亚洲成人黄色网址 | 日韩美一级片 | 欧美成人亚洲 | 永久视频在线 | 国产东北真实交换多p免视频 | 欧美精品免费在线观看 | 国产精品成人免费一区二区视频 | av成人在线看 | 啪啪网站大全 | 丰满人妻一区二区三区大胸 | 欧美日韩国产二区 | 国产精品12 | 亚洲另类自拍 | 免费av软件 | 在线成人小视频 | 制中文字幕音影 | 777久久| 午夜精品美女久久久久av福利 | 日韩电影三级 | 在线少妇 | 国产精品久久久久久久久久久久久久久久 | 欧美成一区二区三区 | 中国美女一级看片 | 三级免费黄录像 | 毛片网站视频 |