国产一卡2卡三卡4卡麻豆_了解最新日韩草逼视频_h片在线播放一区_国产激情影视在线_好了av四色综合无码久久_欧美黑白双插OOR720P_日本精品中文字幕在线_秋霞午夜手机影院_亚洲国产一区二区3da毛片_欧美杂交深喉video中文字幕

產品推薦:氣相|液相|光譜|質譜|電化學|元素分析|水分測定儀|樣品前處理|試驗機|培養箱


化工儀器網>技術中心>專業論文>正文

歡迎聯系我

有什么可以幫您? 在線咨詢

RAFT-DIC:用于全自動、高精度、稠密位移場測量的任務優化神經網絡

來源:深圳市海塞姆科技有限公司   2024年07月12日 11:07  

導讀

近期,海塞姆科技首席科學家北京航空航天大學潘兵教授課題組在Experimental Mechanics上發文“User-Independent, Accurate and Pixel-Wise DIC Measurements with a Task-Optimized Neural Network”。論文介紹了一種新的基于任務優化神經的深度學習數字圖像相關方法(Digital image correlation, DIC)—RAFT-DIC,通過針對性地改進深度學習DIC框架并開發新的數據集生成方法對模型進行訓練,RAFT-DIC可實現全自動、逐像素、高精度的位移場測量。與現有深度學習DIC方法相比,RAFT-DIC的亞像素位移測量精度約高出一個數量級,且具有更強的跨數據集泛化性能和實用性。

文章信息:Pan B, Liu Y. User-Independent, Accurate and Pixel-Wise DIC Measurements with a Task-Optimized Neural Network[J]. Experimental Mechanics, 2024: 1-15.

RAFT-DIC:用于全自動、高精度、稠密位移場測量的任務優化神經網絡

 

研究背景

數字圖像相關方法因其非接觸全場測量、使用簡單便捷、適用范圍廣泛等優點,已成為實驗力學領域主流的位移和變形測量技術, 被廣泛應用于不同科學和工程領域。盡管基于圖像子區的局部DIC算法(常規DIC)在測量精準度、計算效率和魯棒性方面取得了重大進展,并在商業軟件中普遍使用,但仍存在以下兩個不足:

1) 常規DIC計算要求用戶明確輸入關鍵計算參數(圖像子區大小、形函數階數等)以進行后續的相關計算,無法實現使用者獨立的全自動測量;

2) 常規DIC計算是在參考圖像上指定均勻分布的計算點(相鄰點之間的距離是使用者指定的計算步長)上進行的,因此輸出的是離散計算結果,無法實現逐像素稠密位移場測量。

為了解決常規DIC的這些固有局限,深度學習是一種可能的解決方案。自 2021 年深度學習被首次引入 DIC以來,各種基于深度學習的 DIC 方法已經證明了神經網絡在圖像變形測量方面的潛力和優勢。與常規DIC相比,深度學習DIC可以在網絡訓練后以端到端的方式輸出稠密位移場,且該過程無需使用者人為選擇計算參數。盡管已有很多學者嘗試將深度學習引入DIC,但現有深度學習DIC的亞像素位移測量精準度與常規DIC相比沒有明顯優勢,特別是對于(平移、轉動、拉伸和剪切或其組合等)低頻位移場。此外,現有深度學習DIC的泛化能力不足,導致其在實際實驗圖片中的表現不如測試數據集。

 

技術路線

在網絡框架方面,本文借鑒了深度學習光流估計領域研究進展,并充分利用了DIC測量的先驗信息(計算像素之間的相似度及迭代更新位移場),從根本上優化了網絡框架。在光流估計領域中,遞歸全對場變換框架(Recurrent All-Pairs Field Transforms, RAFT)框架在提出時達到了最高的光流估計精度(誤差約為3個像素),并成為深度學習光流估計的第三代標準框架。盡管RAFT在光流估計領域表現出優異的性能,但其亞像素精度遠遠達不到DIC測量需求,因此RAFT框架并不適合直接應用于DIC測量。

為此,本文對原始 RAFT 框架進行了針對性的修改以提高其測量性能。修改后的位移估計框架稱為RAFT-DIC(主要模塊如圖1所示),其主要整體框架由三個模塊組成:1)編碼器模塊:提取參考散斑圖像和變形圖像的特征信息;24D相關層:通過構建參考圖像特征和變形圖像的特征向量所有對之間的4D 相關層,計算出參考圖像和變形圖像的相似性;3)迭代更新運算模塊:使用基于卷積神經網絡的迭代更新運算模塊更新RAFT-DIC估計的位移場。

 

RAFT-DIC:用于全自動、高精度、稠密位移場測量的任務優化神經網絡

 

圖1. RAFT-DIC框架的主要模塊:1) 輸出全分辨率特征的特征編碼器和上下文編碼器;2) 以兩個尺度(1和1/2)池化的4D相關層構建的多尺度相關金字塔,3) 更新更新算子,用于更新和細化位移場。

RAFT-DIC對原始 RAFT 框架在兩個方面做了針對性的修改:首先,去除了編碼模塊中所有的下采樣操作,從而使模塊感知更多的空間信息,大大提高了位移估計精度;其次,4D相關層的金字塔層數減少到兩個,因此網絡可以更高效地注重小位移精度。

在訓練數據集方面,本文還開發了隨機散斑圖像和位移場數據集生成技術。通過充分考慮真實測量場景的因素(光照變化、散焦、相機放大倍率等),建立了分布廣泛的散斑圖像數據集(圖2)。

RAFT-DIC:用于全自動、高精度、稠密位移場測量的任務優化神經網絡

圖2. 合成的散斑數據集圖像示例

此外本文提出一種無模型位移場數據集生成方法,將隨機自然影像的灰度分布通過灰度歸一化、隨機模糊、隨機放縮一系列操作轉化為位移場分布(圖3)。與現有的使用特定數學模型的位移場生成技術相比,位移場數據集的多樣性和復雜性有所提高。基于所建立的散斑圖像和位移場數據集生成技術,構建了一個分布廣泛、魯棒性強的數據集,極大地提高了RAFT-DIC的泛化性能。

 

RAFT-DIC:用于全自動、高精度、稠密位移場測量的任務優化神經網絡

 

圖3. (a) 基于隨機自然圖像的位移場生成流程,(b) 隨機自然圖像樣本以及相應的生成位移場。

 


實驗結果

為驗證RAFT-DIC方法相對于現有的基于一階和二階形函數的常規DIC (采用當前先進的IC-GN算法) 和不同深度學習DIC (StrainNet-f、DisplacementNet和原始RAFT ) 的亞像素位移測量精準度,首先在圖4的數值模擬圖片中進行了測試,不同方法的實驗結果如圖5所示。實驗結果表明,所提出的RAFT-DIC的精準度比其它方法高出約一個數量級。

 

RAFT-DIC:用于全自動、高精度、稠密位移場測量的任務優化神經網絡

 

 

圖4. (a) 參考散斑圖像和 (b) 施加的正弦位移場

 

RAFT-DIC:用于全自動、高精度、稠密位移場測量的任務優化神經網絡

 

圖5. 使用一階 DIC(圖像子區大小21×21 像素,一階形函數)、二階 DIC(圖像子區大小 : 21*21 像素)、StrainNet-f、DisplacementNet、原始 RAFT 和RAFT-DIC測量的 u 位移(左)和誤差圖(右)的比較。


為了進一步驗證RAFT-DIC在真實實驗圖像中的性能,在橡膠試樣三點彎曲試驗和DIC challenge中的單向拉伸實驗上進行了進一步測試。實驗結果進一步證明了RAFT-DIC具有較強的跨數據集泛化性能和實用性。


RAFT-DIC:用于全自動、高精度、稠密位移場測量的任務優化神經網絡

 

 

圖6. (a) 參考圖像和 (b) 三點彎曲實驗中的變形圖像


 

RAFT-DIC:用于全自動、高精度、稠密位移場測量的任務優化神經網絡

 

圖7. 標準 DIC、RAFT-DIC、StrainNet-f、DisplacementNet 和原始 RAFT 計算的 u 和 v 位移場

 


RAFT-DIC:用于全自動、高精度、稠密位移場測量的任務優化神經網絡

RAFT-DIC:用于全自動、高精度、稠密位移場測量的任務優化神經網絡

 

 

 

 

圖8. (a) 單軸拉伸試驗的參考圖像和變形圖像,(b) 常規 DIC(圖像子區大?。?21 × 21 像素,計算步長 : 3 像素)、RAFT-DIC、StrainNet-f、DisplacementNet 和原始 RAFT 對應的 u 和 v 位移場

 

總結與展望

本文提出一種采用任務優化神經網絡框架的深度學習DIC方法—RAFT-DIC,該方法可在無用戶輸入的情況下,以端到端的方式實現精準和像素級稠密的位移場測量。仿真實驗和真實實驗結果表明,RAFT-DIC在測量精準度和跨數據集泛化能力方面均優于現有的深度學習DIC方法。與常規DIC相比,RAFT-DIC不僅能輸出逐像素的密集位移,無需手動選擇關鍵計算參數,在具有復雜變形圖像的位移測量上具有明顯更高的精準度,對于簡單變形圖像則可獲得與常規DIC相當的位移測量精準度。未來,研究人員將進一步提高RAFT-DIC的實用性,例如與其它神經網絡結合拓展其位移測量范圍,以及實現基于Raft-DIC的全自動、精準和稠密的3D-DIC測量,該先進算法將應用在海塞姆科技的新版軟件中。

 

 

 

免責聲明

  • 凡本網注明“來源:化工儀器網”的所有作品,均為浙江興旺寶明通網絡有限公司-化工儀器網合法擁有版權或有權使用的作品,未經本網授權不得轉載、摘編或利用其它方式使用上述作品。已經本網授權使用作品的,應在授權范圍內使用,并注明“來源:化工儀器網”。違反上述聲明者,本網將追究其相關法律責任。
  • 本網轉載并注明自其他來源(非化工儀器網)的作品,目的在于傳遞更多信息,并不代表本網贊同其觀點和對其真實性負責,不承擔此類作品侵權行為的直接責任及連帶責任。其他媒體、網站或個人從本網轉載時,必須保留本網注明的作品第一來源,并自負版權等法律責任。
  • 如涉及作品內容、版權等問題,請在作品發表之日起一周內與本網聯系,否則視為放棄相關權利。
企業未開通此功能
詳詢客服 : 0571-87858618
主站蜘蛛池模板: 稷山县| 诸城市| 定南县| 前郭尔| 资中县| 庄浪县| 瑞昌市| 湘潭县| 平谷区| 山阴县| 尉氏县| 阜新市| 阳东县| 玛沁县| 英德市| 措勤县| 金秀| 象州县| 鹤壁市| 茶陵县| 祁阳县| 白玉县| 略阳县| 荆州市| 松原市| 白沙| 社会| 荆门市| 虎林市| 弋阳县| 精河县| 运城市| 渭南市| 福贡县| 藁城市| 梅州市| 庄河市| 芦溪县| 尼玛县| 陆良县| 游戏|