pytorch每次迭代训练前都重新对数据集进行采样形成平衡数据集
生活随笔
收集整理的這篇文章主要介紹了
pytorch每次迭代训练前都重新对数据集进行采样形成平衡数据集
小編覺得挺不錯(cuò)的,現(xiàn)在分享給大家,幫大家做個(gè)參考.
對于不平衡數(shù)據(jù)集的訓(xùn)練通常有兩種方法:
- 一種是先用數(shù)據(jù)平衡的方法形成平衡數(shù)據(jù)集之后用于每一輪的訓(xùn)練,此時(shí)每輪訓(xùn)練的數(shù)據(jù)集是不變的,這一方法在pytorch的實(shí)現(xiàn)比較簡單,即先構(gòu)建好平衡數(shù)據(jù)集train_set,然后構(gòu)建train_loder:
? ? ? ?這種方法只需要構(gòu)建一次的train_loder
?
- 還有一種方法稍微麻煩一些,就是在每輪的迭代訓(xùn)練前都重新對數(shù)據(jù)集進(jìn)行隨機(jī)采樣形成平衡數(shù)據(jù)集train_set,此時(shí)每輪訓(xùn)練的數(shù)據(jù)集是變化的,需要在每輪的epoch中重新構(gòu)建train_loder:
? ? ? ?訓(xùn)練有多少個(gè)epoch,就需要構(gòu)建train_loder多少次
總結(jié)
以上是生活随笔為你收集整理的pytorch每次迭代训练前都重新对数据集进行采样形成平衡数据集的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: The truth value of a
- 下一篇: TCP三次握手的序列号和确认号