BP 神经网络
基于BP神經網絡與遺傳算法實現盾構砂漿性能優化方法技術
技術編號:14113655閱讀:494留言:0更新日期:2016-12-07 11:00 本發明專利技術公開了一種基于BP神經網絡與遺傳算法實現盾構砂漿性能優化方法,包括以下步驟,選取多個在砂漿拌制過程中影響砂漿性能的影響參數以及能夠反映砂漿性能的性能觀測參數;在不同所述影響參數下配制多組砂漿樣本,采集各組砂漿樣本的性能觀測參數,進行歸一化處理,分別得到樣本矩陣X和性能樣本矩陣Y;以所述樣本矩陣X作為輸入,以所述性能樣本矩陣Y作為輸出,運用BP神經網絡算法,對樣本進行訓練,檢驗,建立拌制過程演化模型;利用遺傳算法算法優化模型,尋找所述影響參數的最優范圍。 全部詳細技術資料下載【技術實現步驟摘要】
本專利技術涉及盾構砂漿拌制優化方法領域,尤其涉及一種基于BP神經網絡與遺傳算法實現盾構砂漿性能優化方法。
技術介紹
盾構砂漿是盾構壁后注漿的漿液,其拌制的材料包括水泥、粉煤灰、膨潤土、石灰、砂、水,其主要性能有泌水率、稠度、強度、密度等。在拌制過程中,不同的配合比對砂漿性能有著不同的影響,在工程中,拌制的砂漿漿液性能由于配合比不好,出現性能較差的現象。因此拌制配合比是否存在最優化的狀態是實現性能優化的簡單有效方法,拌制過程是一個復雜非線性系統,無法用簡單的數學公式描述,而砂漿配合比實驗為建立拌和模型奠定了基礎;為此,需要一種基于BP神經網絡與遺傳算法實現盾構砂漿性能優化方法,該方法利用BP神經網絡建立拌制過程的數學模型,并利用遺傳算法對建立的模型進行搜索,尋找拌制過程中配合比參數最優值,根據最優值進行實際生產指導。
技術實現思路
有鑒于此,本專利技術的目的是提供一種基于BP神經網絡與遺傳算法實現盾構砂漿性能優化方法,該方法利用BP神經網絡建立拌制過程的數學模型,并利用遺傳算法對建立的模型進行搜索,尋找拌制過程中配合比參數最優值。本專利技術的基于BP神經網絡與遺傳算法實現盾構砂漿性能優化方法,包括以下步驟:選取多個在砂漿拌制過程中影響砂漿性能的影響參數以及能夠反映砂漿性能的性能觀測參數;在不同所述影響參數下配制多組砂漿樣本,并得到影響參數樣本矩陣采集各組砂漿樣本的性能觀測參數,并得到與影響參數樣本矩陣對應的觀察參數樣本矩陣分別對所述影響參數樣本矩陣和觀察參數樣本矩陣進行歸一化處理,分別得到樣本矩陣X和性能樣本矩陣Y;以所述樣本矩陣X作為輸入,以所述性能樣本矩陣...
【技術保護點】
一種基于BP神經網絡與遺傳算法實現盾構砂漿性能優化方法,其特征在于,包括以下步驟:選取多個在砂漿拌制過程中影響砂漿性能的影響參數以及能夠反映砂漿性能的性能觀測參數;在不同所述影響參數下配制多組砂漿樣本,并得到影響參數樣本矩陣采集各組砂漿樣本的性能觀測參數,并得到與影響參數樣本矩陣對應的觀察參數樣本矩陣分別對所述影響參數樣本矩陣和觀察參數樣本矩陣進行歸一化處理,分別得到樣本矩陣X和性能樣本矩陣Y;以所述樣本矩陣X作為輸入,以所述性能樣本矩陣Y作為輸出,運用BP神經網絡算法,對樣本進行訓練,檢驗,建立拌制過程演化模型;利用遺傳算法算法優化模型,尋找所述影響參數的最優范圍。
【技術特征摘要】
1.一種基于BP神經網絡與遺傳算法實現盾構砂漿性能優化方法,其特征在于,包括以下步驟:選取多個在砂漿拌制過程中影響砂漿性能的影響參數以及能夠反映砂漿性能的性能觀測參數;在不同所述影響參數下配制多組砂漿樣本,并得到影響參數樣本矩陣采集各組砂漿樣本的性能觀測參數,并得到與影響參數樣本矩陣對應的觀察參數樣本矩陣分別對所述影響參數樣本矩陣和觀察參數樣本矩陣進行歸一化處理,分別得到樣本矩陣X和性能樣本矩陣Y;以所述樣本矩陣X作為輸入,以所述性能樣本矩陣Y作為輸出,運用BP神經網絡算法,對樣本進行訓練,檢驗,建立拌制過程演化模型;利用遺傳算法算法優化模型,尋找所述影響參數的最優范圍。2.根據權利要求1所述的基于BP神經網絡與遺傳算法實現盾構砂漿性能優化方法,其特征在于:所述影響參數選取有:水泥、粉煤灰、膨潤土、石灰、砂、水;所述觀測參數選取有稠度、密度、泌水率、強度。3.根據權利要求1所述的基于BP神經網絡與遺傳算法實現盾構砂漿性能優化方法,其特征在于:所述影響參數樣本矩陣為: X ~ = x ~ 11 x ~ 12 ... x ~ 1 N x ~ 21 x ~ 22 ... x ~ 2 N ... ... ... ... x ~ n 1 x ~ n 2 ... x ~ n N ; ]]>其中,為第k個樣本的第i個影響參數的觀測值;n為影響參數的個數,N為樣本個數;所述觀察參數樣本矩陣為: Y ~ = y ~ 11 y ~ 12 ... y ~ 1 N y ~ 21 y ~ 22 ... y ~ 2 N ... ... ... ... y ~ m 1 y ~ m 2 ... y ~ ...
總結
- 上一篇: Attention机制_pytorch
- 下一篇: torch.nn.Linear()函数的