當(dāng)前位置:
首頁(yè) >
复用预训练层
發(fā)布時(shí)間:2025/3/19
23
豆豆
從零開始訓(xùn)練一個(gè)非常大的 DNN 通常不是一個(gè)好主意,相反,您應(yīng)該總是嘗試找到一個(gè)現(xiàn)有的神經(jīng)網(wǎng)絡(luò)來完成與您正在嘗試解決的任務(wù)類似的任務(wù),然后復(fù)用這個(gè)網(wǎng)絡(luò)的較低層:這就是所謂的遷移學(xué)習(xí)。這不僅會(huì)大大加快訓(xùn)練速度,還將需要更少的訓(xùn)練數(shù)據(jù)。
例如,假設(shè)您可以訪問經(jīng)過訓(xùn)練的 DNN,將圖片分為 100 個(gè)不同的類別,包括動(dòng)物,植物,車輛和日常物品。 您現(xiàn)在想要訓(xùn)練一個(gè) DNN 來對(duì)特定類型的車輛進(jìn)行分類。 這些任務(wù)非常相似,因此您應(yīng)該嘗試重新使用第一個(gè)網(wǎng)絡(luò)的一部分(請(qǐng)參見圖 11-4)
如果新任務(wù)的輸入圖像與原始任務(wù)中使用的輸入圖像的大小不一致,則必須添加預(yù)處理步驟以將其大小調(diào)整為原始模型的預(yù)期大小。 更一般地說,如果輸入具有類似的低級(jí)層次的特征,則遷移學(xué)習(xí)將很好地工作
總結(jié)
- 上一篇: .bash_profile 写入时间格式
- 下一篇: 复用 TensorFlow 模型