日韩性视频-久久久蜜桃-www中文字幕-在线中文字幕av-亚洲欧美一区二区三区四区-撸久久-香蕉视频一区-久久无码精品丰满人妻-国产高潮av-激情福利社-日韩av网址大全-国产精品久久999-日本五十路在线-性欧美在线-久久99精品波多结衣一区-男女午夜免费视频-黑人极品ⅴideos精品欧美棵-人人妻人人澡人人爽精品欧美一区-日韩一区在线看-欧美a级在线免费观看

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 > 编程资源 > 编程问答 >内容正文

编程问答

云从科技 OCR任务 pixel-anchor 方法

發布時間:2024/1/8 编程问答 44 豆豆
生活随笔 收集整理的這篇文章主要介紹了 云从科技 OCR任务 pixel-anchor 方法 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
云從科技提出了一種端到端的深度學習文本檢測框架Pixel-Anchor,通過特征共享的方式高效的把像素級別的圖像語義分割和錨檢測回歸放入一個網絡之中, 把像素分割結果轉換為錨檢測回歸過程中的一種注意力機制,使得錨檢測回歸的方法在獲得高檢出率的同時,也獲得高精確度。此外,對于如中文這樣文本長 度跨度很大的語言,在Pixel-Anchor中,提出了一個自適應的預測層,針對不同層級的特征所對應的感受野范圍,設計不同的錨以及錨的空間位置分布,以更 高的效率更好的適應變化的文本長度。如前所述,在兩個具有挑戰性的自然場景文本檢測測試集ICDAR2015以及ICDAR2017 MLT,Pixel-Anchor在檢測準確率 和檢測效率兩個綜合維度上,獲得了至今為止最好的結果(具體結果見下面Table 1,Table 2和Table 3)。該框架在滿足生產環境實時性要求的基礎上獲得了很 高的檢測準確率,目前該框架已在云從科技的證件票據識別系統和圖片廣告過濾系統中上線。

文章導讀

?


Pixel-Anchor這套文本檢測框架,和目前主流的文本檢測框架相比,提出了兩個大的改進點:

第一點是提出了把像素級別的圖像語義分割以及基于錨的檢測回歸方法高效融合在一起,可端到端訓練的檢測網絡。在該網絡中,像素級別的圖像語義分割以及基于錨的檢測回歸方法共享基礎特征,而像素級別的圖像語義分割結果作為一種注意力機制,用以監督錨檢測回歸的執行過程,在有效保證文本檢出率的同時,提升了文本檢測的精度。

總體框架見上圖,Pixel-Anchor采用學術界通用的ResNet-50作為特征提取主干網絡,提取出1/4,1/8,1/16的特征圖作為像素級別語義分割模塊(Figure 5)以及錨檢測回歸模塊(Figure 6)的基礎特征,同時語義分割模塊的輸出結果以熱力圖的形式注入到錨檢測回歸模塊中。整個網絡簡單輕巧,可通過ADAM優化方法進行端到端的訓練。

第二點是在錨檢測回歸這個模塊中引入了自適應預測層“Adaptive Predictor Layer”,該預測層連接在不同層級的特征圖之后,根據各特征圖感受野的不同,調整錨的長寬比,卷積核的形狀以及錨的空間密度(anchor density,見Figure 7),用以高效的獲得各特征圖上的文本檢測結果,進而對文本長度的變化獲得更好的適應性。自適應預測層在檢測水平長文本上的性能非常出色,和經典的CTPN方法相比,我們的方法不需要復雜的后處理,更魯棒的同時效率更高。

鏈接:https://zhuanlan.zhihu.com/p/50401761

總結

以上是生活随笔為你收集整理的云从科技 OCR任务 pixel-anchor 方法的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。