日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問(wèn) 生活随笔!

生活随笔

當(dāng)前位置: 首頁(yè) > 人文社科 > 生活经验 >内容正文

生活经验

深度学习中的一些英文解释

發(fā)布時(shí)間:2023/11/27 生活经验 33 豆豆
生活随笔 收集整理的這篇文章主要介紹了 深度学习中的一些英文解释 小編覺(jué)得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.

A:

(1)anchors:錨點(diǎn)。(anchors(錨點(diǎn))定義在RPN網(wǎng)絡(luò)中)

B:

(1)bounding box:預(yù)測(cè)邊界框。

(2)Botton-up 3D proposal generation:自底向上的3D預(yù)選目標(biāo)框的生成。

(3)Bin-based 3D Box Generation:基于框(區(qū)間)的3d預(yù)目標(biāo)生成。

(4)batch-size: 1次迭代所使用的樣本量。

(5)Batches(批次):在訓(xùn)練神經(jīng)網(wǎng)絡(luò)的同時(shí),不用一次發(fā)送整個(gè)輸入,我們將輸入分成幾個(gè)隨機(jī)大小相等的塊。與整個(gè)數(shù)據(jù)集一次性饋送到網(wǎng)絡(luò)時(shí)建立的模型相比,批量訓(xùn)練數(shù)據(jù)使得模型更加廣義化。

C:

(1)Canonical 3D Box Refinment:3D目標(biāo)框的精細(xì)優(yōu)化。

(2)convolution kernel(卷積核):圖像處理時(shí),給定輸入圖像,在輸出圖像中每一個(gè)像素是輸入圖像中一個(gè)小區(qū)域中像素的加權(quán)平均,其中權(quán)值由一個(gè)函數(shù)定義,這個(gè)函數(shù)(卷積層的權(quán)值)稱為卷積核。

D:

(1)Dropout(丟棄)——Dropout 是一種正則化技術(shù),可防止網(wǎng)絡(luò)過(guò)度擬合套。顧名思義,在訓(xùn)練期間,隱藏層中的一定數(shù)量的神經(jīng)元被隨機(jī)地丟棄。這意味著訓(xùn)練發(fā)生在神經(jīng)網(wǎng)絡(luò)的不同組合的神經(jīng)網(wǎng)絡(luò)的幾個(gè)架構(gòu)上。你可以將 Dropout 視為一種綜合技術(shù),然后將多個(gè)網(wǎng)絡(luò)的輸出用于產(chǎn)生最終輸出。

E:

(1)epoch(周期): 1個(gè)epoch表示過(guò)了1遍訓(xùn)練集中的所有樣本。周期被定義為向前和向后傳播中所有批次的單次訓(xùn)練迭代。這意味著 1 個(gè)周期是整個(gè)輸入數(shù)據(jù)的單次向前和向后傳遞。

(2)Exploding Gradient Problem(激增梯度問(wèn)題)——這與消失的梯度問(wèn)題完全相反,激活函數(shù)的梯度過(guò)大。在反向傳播期間,它使特定節(jié)點(diǎn)的權(quán)重相對(duì)于其他節(jié)點(diǎn)的權(quán)重非常高,這使得它們不重要。這可以通過(guò)剪切梯度來(lái)輕松解決,使其不超過(guò)一定值

F:

(1)foreground point:前景點(diǎn)(前景foreground是你感興趣的目標(biāo)對(duì)象。背景background正好相反。)

G:

(1)Generalization Ability(泛化能力):是指機(jī)器學(xué)習(xí)算法對(duì)新鮮樣本的適應(yīng)能力。 學(xué)習(xí)的目的是學(xué)到隱含在數(shù)據(jù)背后的規(guī)律,對(duì)具有同一規(guī)律的學(xué)習(xí)集以外的數(shù)據(jù),經(jīng)過(guò)訓(xùn)練的網(wǎng)絡(luò)也能給出合適的輸出,該能力稱為泛化能力。

(2)ground truth:真實(shí)標(biāo)簽

(3)ground-truth?bounding boxes:人為在訓(xùn)練集圖像中標(biāo)出要檢測(cè)物體的大概范圍,也就是人為對(duì)數(shù)據(jù)進(jìn)行標(biāo)注的框。

H:

I:

(1)intersection over union( IOU):交并比。

J:

K:

L:

(1)learning_rate(學(xué)習(xí)率):控制模型的學(xué)習(xí)進(jìn)度,即學(xué)習(xí)率決定了權(quán)值更新的速度,設(shè)置得太大會(huì)使結(jié)果超過(guò)最優(yōu)值,太小會(huì)使下降速度過(guò)慢。

M:

(1)mAP(mean average percision):平均精度。

(2)mask:掩膜
分類的結(jié)果叫l(wèi)abel。
分割的結(jié)果叫mask。
因?yàn)榉指罱Y(jié)果通常會(huì)半透明的覆蓋在待分割目標(biāo)上,所以就叫它掩膜吧。
圖片中有一個(gè)圓形物體,你從一張紙上剪掉一個(gè)和該物體一模一樣大小的圓,把這張紙蒙在圖片上,這時(shí)候你只能看見(jiàn)這個(gè)圓形物體,這張紙就是mask了。

N:

(1)NMS(Non-Maximum Suppression):非極大值抑制。

NMS即非極大抑制,顧名思義就是抑制不是極大值的元素,搜索局部的極大值。

在物體檢測(cè)中,NMS?應(yīng)用十分廣泛,其目的是為了清除多余的框,找到最佳的物體檢測(cè)的位置。

(2)norm(范數(shù)):是具有“長(zhǎng)度”概念的函數(shù)。在線性代數(shù)、泛函分析及相關(guān)的數(shù)學(xué)領(lǐng)域,是一個(gè)函數(shù),其為向量空間內(nèi)的所有向量賦予非零的正長(zhǎng)度或大小。另一方面,半范數(shù)(英語(yǔ):seminorm)可以為非零的向量賦予零長(zhǎng)度。

O:

(1)offset:偏移量

P:

(1)Point Cloud Encoder-Decoder:點(diǎn)云的編碼器和解碼器

(2)Point-wise Feature vector:點(diǎn)云中各個(gè)點(diǎn)的特征(點(diǎn)云特征)

(3)Point -wise:逐點(diǎn)(每個(gè)點(diǎn))

?

Q:

R:

(1)Receptive Field(感受野):在卷積神經(jīng)網(wǎng)絡(luò)中,每一層輸出的特征圖(feature map)上的像素點(diǎn)在輸入圖片上映射的區(qū)域大小。再通俗點(diǎn)的解釋是,特征圖上的一個(gè)點(diǎn)對(duì)應(yīng)輸入圖上的區(qū)域,如圖所示。

(2)Robustness(魯棒性):魯棒是Robust的音譯,也就是健壯和強(qiáng)壯的意思。它是在異常和危險(xiǎn)情況下系統(tǒng)生存的關(guān)鍵。比如說(shuō),計(jì)算機(jī)軟件在輸入錯(cuò)誤、磁盤故障、網(wǎng)絡(luò)過(guò)載或有意攻擊情況下,能否不死機(jī)、不崩潰,就是該軟件的魯棒性。所謂“魯棒性”,是指控制系統(tǒng)在一定(結(jié)構(gòu),大小)的參數(shù)攝動(dòng)下,維持其它某些性能的特性。根據(jù)對(duì)性能的不同定義,可分為穩(wěn)定魯棒性和性能魯棒性。以閉環(huán)系統(tǒng)的魯棒性作為目標(biāo)設(shè)計(jì)得到的固定控制器稱為魯棒控制器。
(3)RPN(RegionProposal Network):區(qū)域生成網(wǎng)絡(luò)。

?

S:

(1)Selective Search算法:

(2)Supervised pre-training(有監(jiān)督訓(xùn)練):

?

T:

(1)Transfer Learning:遷移學(xué)習(xí)

U:

V:

(1)Vanishing Gradient Problem:消失梯度問(wèn)題(Vanishing Gradient Problem)——激活函數(shù)的梯度非常小的情況下會(huì)出現(xiàn)消失梯度問(wèn)題。在權(quán)重乘以這些低梯度時(shí)的反向傳播過(guò)程中,它們往往變得非常小,并且隨著網(wǎng)絡(luò)進(jìn)一步深入而"消失"。這使得神經(jīng)網(wǎng)絡(luò)忘記了長(zhǎng)距離依賴。這對(duì)循環(huán)神經(jīng)網(wǎng)絡(luò)來(lái)說(shuō)是一個(gè)問(wèn)題,長(zhǎng)期依賴對(duì)于網(wǎng)絡(luò)來(lái)說(shuō)是非常重要的。這可以通過(guò)使用不具有小梯度的激活函數(shù) ReLu 來(lái)解決。

W:

X:

Y:

Z:

?

epoch、 iteration和batchsize
深度學(xué)習(xí)中經(jīng)??吹絜poch、 iteration和batchsize,下面按自己的理解說(shuō)說(shuō)這三個(gè)的區(qū)別:

(1)batchsize:批大小。在深度學(xué)習(xí)中,一般采用SGD訓(xùn)練,即每次訓(xùn)練在訓(xùn)練集中取batchsize個(gè)樣本訓(xùn)練;

(2)iteration:1個(gè)iteration等于使用batchsize個(gè)樣本訓(xùn)練一次;

(3)epoch:1個(gè)epoch等于使用訓(xùn)練集中的全部樣本訓(xùn)練一次;

舉個(gè)例子,訓(xùn)練集有1000個(gè)樣本,batchsize=10,那么:

訓(xùn)練完整個(gè)樣本集需要:100次iteration,1次epoch。

對(duì)于我處理的Dataset, Training Dataset :12個(gè)seq_x folder, 每一個(gè)folder有149個(gè)圖片。所以總共有1788個(gè)圖片。

若batchsize =12, 那么 iteration = 1788 / 12 = 149, epoch可以自己設(shè)定。
?

?

?

總結(jié)

以上是生活随笔為你收集整理的深度学习中的一些英文解释的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。

如果覺(jué)得生活随笔網(wǎng)站內(nèi)容還不錯(cuò),歡迎將生活随笔推薦給好友。