日韩av黄I国产麻豆传媒I国产91av视频在线观看I日韩一区二区三区在线看I美女国产在线I麻豆视频国产在线观看I成人黄色短片

歡迎訪問 生活随笔!

生活随笔

當前位置: 首頁 >

Google 图片搜索的原理是什么?

發布時間:2025/7/25 43 豆豆
生活随笔 收集整理的這篇文章主要介紹了 Google 图片搜索的原理是什么? 小編覺得挺不錯的,現在分享給大家,幫大家做個參考.

Google 圖片搜索的原理是什么?

1 條評論? 分享 按投票排序按時間排序

18 個回答

389贊同 反對,不會顯示你的姓名 知乎用戶,安全行業 XsXs、知乎用戶、知乎用戶?等人贊同 針對這個問題,請教了算法組的同事,他分享了基本的思路:

對于這種圖像搜索的算法,一般是三個步驟:

1. 將目標圖片進行特征提取,描述圖像的算法很多,用的比較多的是:SIFT描述子,指紋算法函數,bundling features算法,hash function(散列函數)等。也可以根據不同的圖像,設計不同的算法,比如圖像局部N階矩的方法提取圖像特征。

2. 將圖像特征信息進行編碼,并將海量圖像編碼做查找表。對于目標圖像,可以對分辨率較大的圖像進行降采樣,減少運算量后在進行圖像特征提取和編碼處理。

3. 相似度匹配運算:利用目標圖像的編碼值,在圖像搜索引擎中的圖像數據庫進行全局或是局部的相似度計算;根據所需要的魯棒性,設定閾值,然后將相似度高的圖片預保留下來;最后應該還有一步篩選最佳匹配圖片,這個應該還是用到特征檢測算法。

其中每個步驟都有很多算法研究,圍繞數學,統計學,圖像編碼,信號處理等理論進行研究。
=======================================================================
下面是阮一峰的一個最簡單的實現:
原文鏈接ruanyifeng.com/blog/201?
這種技術的原理是什么?計算機怎么知道兩張圖片相似呢?

根據Neal Krawetz博士的解釋,原理非常簡單易懂。我們可以用一個快速算法,就達到基本的效果。

這里的關鍵技術叫做"感知哈希算法"(Perceptual hash algorithm),它的作用是對每張圖片生成一個"指紋"(fingerprint)字符串,然后比較不同圖片的指紋。結果越接近,就說明圖片越相似。

下面是一個最簡單的實現:

第一步,縮小尺寸。

將圖片縮小到8x8的尺寸,總共64個像素。這一步的作用是去除圖片的細節,只保留結構、明暗等基本信息,摒棄不同尺寸、比例帶來的圖片差異。 第二步,簡化色彩。
將縮小后的圖片,轉為64級灰度。也就是說,所有像素點總共只有64種顏色。

第三步,計算平均值。
計算所有64個像素的灰度平均值。

第四步,比較像素的灰度。
將每個像素的灰度,與平均值進行比較。大于或等于平均值,記為1;小于平均值,記為0。

第五步,計算哈希值。
將上一步的比較結果,組合在一起,就構成了一個64位的整數,這就是這張圖片的指紋。組合的次序并不重要,只要保證所有圖片都采用同樣次序就行了。 得到指紋以后,就可以對比不同的圖片,看看64位中有多少位是不一樣的。在理論上,這等同于計算"漢明距離"(Hamming distance)。如果不相同的數據位不超過5,就說明兩張圖片很相似;如果大于10,就說明這是兩張不同的圖片。

具體的代碼實現,可以參見Wote用python語言寫的imgHash.py。代碼很短,只有53行。使用的時候,第一個參數是基準圖片,第二個參數是用來比較的其他圖片所在的目錄,返回結果是兩張圖片之間不相同的數據位數量(漢明距離)。

這種算法的優點是簡單快速,不受圖片大小縮放的影響,缺點是圖片的內容不能變更。如果在圖片上加幾個文字,它就認不出來了。所以,它的最佳用途是根據縮略圖,找出原圖。

實際應用中,往往采用更強大的pHash算法和SIFT算法,它們能夠識別圖片的變形。只要變形程度不超過25%,它們就能匹配原圖。這些算法雖然更復雜,但是原理與上面的簡便算法是一樣的,就是先將圖片轉化成Hash字符串,然后再進行比較。

感謝@喜饅頭找到了源頭 。 編輯于 2012-05-17?26 條評論?感謝? 分享 ?收藏???沒有幫助??? 舉報 ???作者保留權利 102贊同 反對,不會顯示你的姓名 名稱不重要,OE2DL@THU@EE 4 Ph.D 江智彬、境界的彼方mph、黃中展?等人贊同

【多圖、多圖】

正好剛剛完成相關必修課的一個課下環節作業,作業題目就是通過實際進行圖像搜索,推測百度圖像搜索用了什么原理。


在對百度圖像檢索原理調研的過程中,發現目前百度可能采用的原理有:(1)基于“信息指紋”;(2)基于顏色特征;(3)取閾值分割圖像;(4)深度學習;(5)跨媒體檢索。下面對各個原理進行簡要的介紹、測試以及分析總結。

1、基于“信息指紋”

1.1 原理介紹

這種檢索方法可以分為如下幾個步驟進行:

① 縮小尺寸

將圖片縮小到8×8的尺寸,總共64個像素。這一步的作用是去除圖片的細節,只保留結構、明暗等基本信息,摒棄不同尺寸、比例帶來的圖片差異。

②簡化色彩。

將縮小后的圖片,轉為64級灰度。也就是說,所有像素點總共只有64種顏色。

③計算平均值。

計算所有64個像素的灰度平均值。

④比較像素的灰度。

將每個像素的灰度,與平均值進行比較。大于或等于平均值,記為1;小于平均值,記為0。

⑤計算哈希值。

將上一步的比較結果,組合在一起,就構成了一個64位的整數,這就是這張圖片的指紋。組合的次序并不重要,只要保證所有圖片都采用同樣次序就行了。

得到指紋以后,就可以對比不同的圖片,看看64位中有多少位是不一樣的。在理論上,這等同于計算“漢明距離”(Hamming distance)。如果不相同的數據位不超過5,就說明兩張圖片很相似;如果大于10,就說明這是兩張不同的圖片。

1.2 分析

通過對“信息指紋”的原理介紹,我們發現這種方法比較看重檢索圖像的結構以及灰度值的分布情況,不能得到RGB值的分布情況,在檢索時也不具有旋轉、平移不變性。

1.3 測試

經過上述分析,我用MATLAB生成了幾幅圖像,然后利用百度識圖進行檢索測試,下面是測試的結果。

圖1 原圖a

圖2 圖a的檢索結果

圖3 原圖b

圖4 圖b的檢索結果

圖5 原圖c

圖6 圖c的檢索結果

經過上面三次檢索測試,我們可以得到如下結論:

(1) 圖a和圖b之間只是旋轉了90度,結果發現檢索的結果也旋轉了90度,說明百度圖片檢索對圖片的結構的確很敏感,檢索圖像時不具有旋轉不變性;

(2) 圖c是在圖b的基礎上加上了一個RGB顏色分布,比較b和c的檢索結果,發現檢索出來圖片的結構都比較相似,但是,后者明顯比前者多了顏色信息,這說明百度在進行圖片檢索時,RGB顏色的分布也是檢索的依據之一;

(3) 仔細觀察圖b的檢索結果,發現排名第二的圖片和檢索出的其他圖片差別其實是很大的,他們在整體結構上完全不一樣,只是局部結構上有一些線條信息,這也是一個值得思考的地方。

2、基于顏色特征

2.1 原理介紹

基于顏色特征的圖像檢索原理的大致思想是:每張圖像都可以轉化成顏色分布直方圖(color histogram),如果兩張圖片的直方圖很接近,就可以認為它們很相似,如圖:

任何一種顏色都是由紅綠藍三原色(RGB)構成的,所以上圖共有4張直方圖(三原色直方圖 + 最后合成的直方圖)。將0~255分成四個區:0~63為第0區,64~127為第1區,128~191為第2區,192~255為第3區。這意味著紅、綠、藍分別有4個區,總共可以構成64種組合(4的3次方)。任何一種顏色必然屬于這64種組合中的一種,這樣就可以統計每一種組合包含的像素數量。

上圖是某張圖片的顏色分布表,將表中最后一欄提取出來,組成一個64維向量(7414, 230, 0, 0, 8, ..., 109, 0, 0, 3415, 53929)。這個向量就是這張圖片的特征值。于是,尋找相似圖片就變成了找出與其最相似的向量。這可以用皮爾遜相關系數或者余弦相似度算出。

2.2 分析

通過上述原理描述,我們發現基于這種原理的圖像檢索只關注圖像在統計意義下的RGB顏色分布信息,并不關心圖像本身的空間分布信息。

2.2 測試

圖7 原圖d

圖8 圖d的檢索結果

圖9 原圖e

圖10 圖e的檢索結果

觀察上訴測試結果,我們可以得到如下幾個結論:

(1) 還是驗證了百度圖像檢索對結構比較看重,檢索出來的圖像和原圖在整體結構上保持一致;

(2) 原圖d和原圖e只是改變了一下色塊的位置,所以如果做它們的顏色分布直方圖應該是完全一致的,但是這兩張圖片的檢索結果很相似但是并不完全相同,因此基本可以判斷百度圖像檢索肯定不可能只采用顏色分布直方圖來進行檢索;

(3) 原圖d和原圖e唯一的差別就是色塊的位置改變了,但是檢索出來的結果并不相同,說明百度進行圖像檢索時應該也是考慮了顏色在空間位置上的分布信息的。

3、取閾值分割圖像

3.1 原理介紹

首先,將原圖轉成一張較小的灰度圖片,假定為50×50像素。然后,確定一個閾值,將灰度圖片轉成黑白圖片。如果兩張圖片很相似,它們的黑白輪廓應該是相近的。確定閾值可以采用“窮舉法”,將閾值從灰度的最低值到最高值,依次取一遍,使得“類內差異最小”或“類間差異最大”的那個值,就是最終的閾值。


有了50×50像素的黑白縮略圖,就等于有了一個50×50的0-1矩陣。矩陣的每個值對應原圖的一個像素,0表示黑色,1表示白色。這個矩陣就是一張圖片的特征矩陣。

兩個特征矩陣的不同之處越少,就代表兩張圖片越相似。這可以用“異或運算”實現(即兩個值之中只有一個為1,則運算結果為1,否則運算結果為0)。對不同圖片的特征矩陣進行“異或運算”,結果中的1越少,就是越相似的圖片。

3.2 分析

可以看出這種方法和第一種“信息指紋”的原理是很相似的,因此也具有相似的特點,就是都對圖像的結構比較看重,忽視RGB顏色的分布,并且檢索圖像不具有旋轉、平移不變性。

3.3 測試

圖11 原圖f

圖12 圖f的檢索結果

圖13 原圖g

圖14 圖g的檢索結果

圖15 原圖h

圖16 圖h的檢索結果

通過上述檢索測試,我們可以得到如下結論:

(1) 圖f和圖h唯一的區別是f是彩色圖像,h是它的二值圖像,但是我們發現他們的檢索結果有很大的差別,彩色圖像檢索出來依然是彩色圖像,二值圖像檢索出來也都是二值圖像,至少可以說明百度圖片檢索不可能只靠取閾值分割圖像來作為檢索依據;

(2) 圖g是在圖f 的基礎上進行了一個90度的旋轉,發現兩者的檢索結果差別還是挺大的,再一次驗證了百度圖片檢索不具有旋轉不變性;

(3) 當用彩色人臉進行檢索時得到的幾乎都是人臉,但是二值化后進行檢索,發現檢索結果并不完全是人臉,有動物甚至毛筆字,還是說明原圖像RGB的分布在做檢索時還是比較重要的;

4、深度學習(Deep Learning)

4.1 原理介紹

自從Hinton在2012年將深度卷積神經網絡(CNN)帶入到圖像分類領域后,深度學習在圖像處理相關領域的研究一下子變得異常火熱起來。從2012年開始,每年ILSVRC比賽的最好成績都有比較大的進步,特別是最近2015年百度剛宣布他們已經將ImageNet圖像分類的top-5錯誤率降低到5.98%,達到了目前公開的最好成績,基于百度對將深度學習應用在圖像處理領域的如此強烈的興趣和技術能力,百度很有可能已經將深度學習的技術應用在了圖像搜索方面。

由于現在關于深度卷積神經網絡的資料挺多的,并且基本都還沒脫離Hinton在2012年提出的結構,所以這里不準備詳細展開CNN的原理介紹。簡單概括就是:利用多個隱藏層、每層多個卷積核對輸入圖像進行卷積,每層的輸出作為下一層的輸入,最后連接一個分類器進行分類,通過不斷的訓練修改各層的參數,最后在每個隱藏層訓練得到一些抽象的特征圖譜,網絡訓練好后就可以對輸入圖像進行分類了。

4.2 分析

基于深度學習原理的圖像檢索,更多的是從一種圖像理解的角度來進行的,得到的是一種更加抽象的描述,也可以理解為“語義”,它更多的是在解釋這個圖像描繪的是什么物體或者什么場景之類的。

4.3 測試

圖17 原圖i

圖18 圖i的檢索結果

圖19 原圖j

圖20 圖j的檢索結果

圖21 原圖k

圖22 圖k的檢索結果

圖23 原圖l

圖24 圖l的檢索結果

上述用于檢索的原圖都是我手機里面自己平時拍的,網絡上沒有的,完全的無標注數據。我們發現檢索的結果在語義上還是比較非常相近的,背景也非常相近,百度應該是對圖像做了一定程度的語義理解的。

5、利用種子圖片

5.1 原理

在2013年的時候有人將深度學習應用在圖像檢索領域,大致做法是這樣的:首先它利用深度卷積神經網絡和深度自動編碼器提取圖片的多層特征,并據此提取圖片的visual word,建立倒排索引,產生一種有效而準確的圖片搜索方法,再充分利用大量的互聯網資源,預先對大量種子圖片做語義分析,然后利用相似圖片搜索,根據相似種子圖片的語義推導出新圖片的語義。

5.2 分析

但如果按照上面原理的描述,似乎重點在于對種子圖片的判斷上,如果種子圖片判斷對了,那么檢索結果自然會很靠譜;反之,若種子圖片判斷錯了,那么檢索結果會很糟糕。其實這更像是一種利用互聯網多年文本檢索的積累,進行的一種文本與圖像之間的跨媒體檢索。

5.3 測試

圖25 圖m的檢索結果

圖26 圖m的判斷

圖27 圖m的檢索結果

上面用來測試的原圖是在網上找的,檢索給出的描述表明對該圖像的文本判斷是正確的,但是檢索到的結果卻并不理想,只有前兩張圖像是描述的鱷魚,其他都不是,只是背景相似。因此應該可以得出結論,百度圖像檢索沒有利用其文本檢索的信息,純粹依靠的是輸入圖像本身的性質。

總結

通過上述分析,對于百度的圖像檢索可以得到的判斷是:

(1) 不可能只采用“信息指紋”、顏色直方圖、取閾值分割法其中的某一種來做為判斷依據;

(2) 應該是對圖像做了語義理解的;

(3) 檢索的結果跟輸入圖像的結構、RGB顏色的空間分布等信息有關系,并且檢索不具有旋轉不變性;

(4) 沒有利用文本檢索,即沒有建立文本-圖像的跨媒體檢索;【哈哈哈,好開心,因為現在老板給我定的博士方向就是跨媒體檢索~~】

對此,對百度圖像檢索所采用的原理的一個猜測是,它利用深度學習的方法進行了圖像語義的理解,也有可能在某些情況下利用圖像結構、RGB分布等信息作為輔助判斷依據,并且對輸入圖像的方向性有要求。

參考資料

1、相似圖片搜索的原理

2、Ren Wu, Shengen Yan, Yi Shan, Qingqing Dang, Gang Sun,Deep Image: Scaling up Image Recognition

編輯于 2015-10-23?18 條評論?感謝? 分享 ?收藏???沒有幫助??? 舉報 ???禁止轉載 16贊同 反對,不會顯示你的姓名 姚旭 雨滴點點、忍人之所不能忍、陳丟丟?等人贊同 本次google圖片搜索的升級, 除了@張穎峰 提到的"相似圖片" 外
還包括了一個很好玩的功能, 就是"圖片"- > "關鍵詞"的搜索功能, 和語音輸入一樣, 都是手機功能回歸pc的一部分, 屬于google goggles的擴展版本. 舉例: 用圖片作為輸入, 得到結果:?goo.gl/1K1nH 基本原理上就是將搜索引擎的中間數據----正向索引, 進行功能擴展和提供服務
原先我們只能通過反向索引從"關鍵詞"- > "圖片", 現在可以利用正向索引從"圖片"- > "關鍵詞"
goggles原先只集中在商品上, 索引庫以amazon這類網站為主要的索引源, 本次升級以后, 可以看到圖片正向索引的范圍擴大到了所有網頁.?
算法的細節層面, 之前沒在這個方向上關注過, 在擴大索引規模和加入非商品特型頁面, 同時只能展示一個"關鍵詞"結果情況下, 對準確率要求非常高, 推測google利用相似圖片進行聚類, 在聚類后的文本關鍵詞簇中, 再次進行簇相關性的識別, 相對于單網頁, 明顯提高圖片的文本描述準確性.?

在應用層面, 除了單純的好玩以外, 也看到了google的野心
目前除文本外的聲音和圖片, 都可以作為輸入數據源轉化為文本進行搜索, 可搜索的范圍在逐步擴大, 雖然目前圖片的覆蓋范圍還很有限.
如果覺得這個功能有愛的話, 大家可以在搜圖片但google沒能給出一個關鍵詞進行描述的時候, 花一分鐘幫google標一個靠譜的詞出來. 發布于 2011-06-21?7 條評論?感謝? 分享 ?收藏???沒有幫助??? 舉報 ???作者保留權利 1贊同 反對,不會顯示你的姓名 賈永磊,圖像處理算法工程師 南美美?贊同 你在多次使用一個搜索引擎時,會發現一些規律的,關鍵詞搜索,這個在文本搜索中是比較常規的,也是基礎的,你可能更關心的是它的以圖搜圖,即基于內容的圖像檢索CBIR,在我看來,google中一個應用最為明顯的是顏色信息,這個也是最容易實現的特征,個人認為特征是其一,難在特大數據庫的檢索,這個是需要技術的,當數據量很小的時候,任何特征幾乎都可以實現檢索,但當數據量很大的時候,應運而來的卻是很復雜的,那是一個工程性的東西。就像鐵道部售票系統一夜崩潰,高的并發量,高的數據量才是第一要解決的。 發布于 2012-01-12?3 條評論?感謝? 分享 ?收藏???沒有幫助??? 舉報 ???作者保留權利 2贊同 反對,不會顯示你的姓名 王曉龍,There is no reason not to follow your … 趙天宇、Carl Ho?贊同 不巧的是,@阮一峰 前天更新的博客里面寫到了這個問題
ruanyifeng.com/blog/201 發布于 2011-07-23?1 條評論?感謝? 分享 ?收藏???沒有幫助??? 舉報 ???作者保留權利 2贊同 反對,不會顯示你的姓名 Henry Li,IT/互聯網老兵 周joe、Max羅德里格斯?贊同 有一篇新的谷歌博客包括視頻,可以看一看:
insidesearch.blogspot.com

Teaching computers to "see" an image
7/20/11 | 1:15:00 PM
Last month, we announced Search by Image, which allows you to search using a picture instead of typing in words. Today, we’re giving you a look under the hood at how Search by Image uses computer vision technology to analyze your image, determine what it is, and return relevant results to you.

Computer vision technology is an active area of computer science research because it’s difficult for a computer to match a person’s ability to see and understand. Search by Image uses computer vision techniques to “see” what is in the image. Computer vision technology doesn’t look at the image filename or where the image came from -- rather, it looks at the content of the image itself to determine what that image is.

When you upload an image to Search by Image, the algorithms analyze the content of the image and break it down into smaller pieces called “features”. These features try to capture specific, distinct characteristics of the image - like textures, colors, and shapes. Features and their geometric configuration represent the computer’s understanding of what the image looks like.

These features are then sent to our backend servers and compared against the billions of images in our index to see if a good match exists. When the algorithm is very confident that it’s found a matching image, you’ll see a “best guess” of what your image is on the results page. Whether or not we have a best guess, you’ll also see results for images that are visually similar -- though they may not be related to your original image.

Check out this video below for an animated look at how Search by Image works.

Because our algorithm sees the world through the “features” that are extracted from images, those define what it can “see” well and what it can’t. We’re more likely to find a good match if your image query has a unique appearance, so landmarks like the Eiffel Tower work really well. Other things that lack distinctive features or a consistent shape, like a crumpled blanket or a puppy, don’t result in confident matches, but will return images which are visually similar in appearance. You can refine your results in those cases by giving the algorithm a hint. Add a word or two into the search box that describes the image, and the results may display better “Similar Images” results.

The results page summarizes a variety of information that we can match for your query image, including our best guess for the image, related web results, and images that are visually similar to the one you’ve uploaded.

To try out Search by Image go to?images.google.com?and click the camera icon, or download the extension for Chrome or Firefox.

Posted by Jingbin Wang, Software Engineer for Image Search 發布于 2011-07-22?添加評論?感謝? 分享 ?收藏???沒有幫助??? 舉報 ???作者保留權利 4贊同 反對,不會顯示你的姓名 謝祎,程序員,設計愛好者,半愈強迫癥患者 Carl Ho、zack Lu、匿名用戶?等人贊同 從我使用Google以圖搜圖的經驗來看,Google的圖像搜索應該采用了多種不同的技術。
Google搜圖能夠找到原圖的原理應該類似于下面的技術:將圖片縮放成多個尺度的圖像,然后在不同的尺度層面提取圖像特征,建立索引,然后進行索引后特征的比對。這種方法在找原圖上十分有效,如果圖像數據庫十分大的話。
如果找不到原圖的話,Google會提供一些相似圖像。根據我的經驗,這些相似圖像一般與原圖像有相似的輪廓和色彩。因此,在查找原圖失敗后,應該會查找與原圖像的輪廓和色彩比較相近的圖像。做法是將圖像分成小塊,比如8*8的子塊,然后在子塊上進行邊緣提取或者計算色彩的均值,在檢索時將查詢圖像也進行這樣的處理,然后按子塊進行比較。
發布于 2012-01-03?添加評論?感謝? 分享 ?收藏???沒有幫助??? 舉報 ???作者保留權利 0贊同 反對,不會顯示你的姓名 宋健,藝術守望者創始人 這個問題我不是很了解專業知識,但是因為也曾經很感興趣地研究過,提供一些參考:

我最早了解“用圖搜圖”的功能是通過?tineye.com?,這家搜索的功能很有特色也很強大,只不過是服務器不很給力,有段時間慢得不行。模糊記得其介紹說主要是通過對圖片的信息進行“采樣”來對比圖片,通過特征采樣,它就可以只對采樣后的信息進行對比,也不用擔心圖片大小被改變或者被編輯過的問題。這個方法的缺點是需要一張一張對互聯網上的圖去采樣入庫,所以有時特別新鮮的圖會搜不到(因為還沒來得及采樣)。

Google的功能應該是類似的,但是更別致。加上它原本就十分強悍的服務器支持,基本上已經可以干掉Tineye了。不過對Tineye也沒關系,它似乎主要是出售圖像處理引擎技術給Adobe這樣的大型廠商的,所以自己是不是搜索主流引擎倒是也沒什么問題。

另,不知Google和Tineye在幕后是否有技術合作。因為很早就聽說Google對Tineye的圖搜圖技術很有興趣。 發布于 2011-06-28?添加評論?感謝? 分享 ?收藏???沒有幫助??? 舉報 ???作者保留權利 3贊同 反對,不會顯示你的姓名 吳思揚,本人答案遵循 WTFPL。 田興發、張瑞、知乎用戶?贊同 內部開發過一個類似工具,場景不同,在此寫出僅為整理思路,順便拋磚,大牛請輕拍

用于圖標比對,16*16、32*32
初始需求是公司要求圖標盡量重用,因已有的圖標過于繁多,一套產品上千枚圖標,如果做出來的設計有類似的就盡量用以前的資源

因圖標使用的是統一色板,所以顏色有規律
按色板對每種顏色編號,二進制
分析當前圖標像素,將幾百上千個點的16進制色值串聯存為字符串

結合圖標規格,每個字符串實際上都獨一無二,除非完全重復
轉換為32進制數,便于傳參比較
這個32進制的數就是圖標指紋,與唯一ID掛鉤

32進制按數字段的重復率計算是否有相同圖像區域
原理類似下面的例子
12345與234,234是重復的
0987654321與098365351765中,098和765是重復的

按最少用4個像素組成一個可見有意義的圖像元素來區分
可以得出一個重復率
比如兩個16*16圖標
相似率100%的為8*5的區域,共1處,分別位于A圖的(x1,y1)和B圖的(x2,y2)
相似率90%的為2*2的區域,共2處,分別位于A圖的(x1,y1)(x2,y2)和B圖的(x3,y3)
最后整合這些輸入,按權重的關系給出一個整體的百分比,用于人為分析

期間探索過程比較艱辛,主要是性能和溢出的問題,PHP的GD庫處理這個問題時效率低下
曾打算直接用OpenCV,不過因為沒有合適的庫函數,學習時間有限,作罷
倒是看到了幾個比較合適的圖像識別函數,打算今后有機會試試

每有設計師新建圖標,都需要做比對,根據比對值判斷是否有雷同或相似度極高的設計
如果相似度高于90%就重用,否則再商量是否新增

但是工具做完后,領導要求變了,說只要保證能提供就行,圖標量多一些也OK,不費力折騰了
所以v0.1后夭折,現在已轉型為一個css sprite拼接工具,按所輸入的圖標拼接為雪碧圖,并生成樣式代碼

不過期間的探索很值得懷念,尤其是以一個交互的身份為整體工作做點改進,這一點我比較自豪 編輯于 2012-05-17?添加評論?感謝? 分享 ?收藏???沒有幫助??? 舉報 ???作者保留權利 2贊同 反對,不會顯示你的姓名 祁育,forever 2 匿名用戶、知乎用戶?贊同 應該說的是圖像搜索吧,就是通過圖找圖的,Google是從牛津花3億美元挖了三個博士來做這個的,Google的實現不太了解,淘寶的圖片搜索做的也相當牛,單從圖片搜索的匹配度來說并不比Google差,但是還沒對外開放這個功能,聽淘寶的負責人講過,他們是先提取圖片的特征,然后用高維數組記錄,建立索引,然后去匹配,難點在于好多相似的圖片就是加了水印,背景不一樣,但是主體是一樣的,有些是主體上有些細節是不一樣的,這個要區分開,技術細節他沒有講,畢竟涉及到專利相關的東西 發布于 2012-05-17?2 條評論?感謝? 分享 ?收藏???沒有幫助??? 舉報 ???作者保留權利 1贊同 反對,不會顯示你的姓名 李陶冶,51Nod全新改版,要做最好用的OJ 小逸?贊同 Google怎么做的不太清楚,以前我自己試著做過一個簡單的。當時用的是sift來提取每張圖片的特征。sift可以將一幅圖的特征轉為一個高維向量(比如128維),之后用KDTree建立查找樹,可以比較快的進行索引和查找。不過說實話在找相似上使用sift有些牛刀殺雞的感覺,并且運算效率低。sift找出的不僅僅是相似,甚至同一本書不同角度的拍攝都能找出來。當時還有surf可以干這事兒,據說效率和效果都要比sift好一些,不過我沒試過。

如果LZ真心想推測一下Google的方法,可以把一張圖旋轉30度,看看能否找出相似。 編輯于 2012-05-17?1 條評論?感謝? 分享 ?收藏???沒有幫助??? 舉報 ???作者保留權利 0贊同 反對,不會顯示你的姓名 馬克思到了,通信專業,擅長無線電通信、光通信等。 我認為是應用了圖形信息匹配的概念,這個技術其實很早就在其它領域應用了,在上世紀海灣戰爭的時候,美國就擁有了地理信息匹配的技術,那是用既有圖像和現地圖像進行信息匹配。相比來講,網上的圖像搜索要比這個技術簡單容易多了。但基本原理應該是一樣,即對圖像進行信息取樣,主要使用特征匹配技術,因為如果使用灰度匹配技術,存在數據量大,而且對相似圖像的識別會產生誤判,而特征匹配可以很好的減少數據量,并且很好的完成同一圖像的不同格式和版本的識別。這可能是Google將軍事技術民用化的另一個事例。
另外,在網絡圖像的搜索技術中,還可以增加關鍵詞的輔助算法,提高準確性。也就是說將與已知圖像的關聯關鍵詞做為輔助搜索手段。 發布于 2011-07-02?添加評論?感謝? 分享 ?收藏???沒有幫助??? 舉報 ???作者保留權利 0贊同 反對,不會顯示你的姓名 prfans海海,我思故我在 圖像檢索。 發布于 2014-02-15?添加評論?感謝? 分享 ?收藏???沒有幫助??? 舉報 ???作者保留權利 0贊同 反對,不會顯示你的姓名 Diego ddwrt 應該是像樓主說的這樣,不知道什么時候能夠搜索視頻 發布于 2014-08-16?添加評論?感謝? 分享 ?收藏???沒有幫助??? 舉報 ???作者保留權利 0贊同 反對,不會顯示你的姓名 劉一帆,來無影,去無蹤~~·· 這個問題太專業了,我也來學習一下。 發布于 2014-10-12?添加評論?感謝? 分享 ?收藏???沒有幫助??? 舉報 ???作者保留權利 0贊同 反對,不會顯示你的姓名 梁念,莫忘來時路,不負少年心 還是把圖像給轉化成無數個點陣,然后再進行比較之后吧 發布于 2015-02-09?添加評論?感謝? 分享 ?收藏???沒有幫助??? 舉報 ???作者保留權利 1贊同 反對,不會顯示你的姓名 蘇霧,讀萬卷書,行萬里路 知乎用戶?贊同 404 not found 發布于 2015-10-30?添加評論?感謝? 分享 ?收藏???沒有幫助??? 舉報 ???作者保留權利 0贊同 反對,不會顯示你的姓名 王尼美,一本假正經,IT 人工標注若干圖像的label, (multiple labels), 之后訓練分類器。依賴于圖像特征的提取以及相似度的計算。 發布于 2012-05-28?添加評論?感謝? 分享 ?收藏???沒有幫助??? 舉報 ???作者保留權利

總結

以上是生活随笔為你收集整理的Google 图片搜索的原理是什么?的全部內容,希望文章能夠幫你解決所遇到的問題。

如果覺得生活随笔網站內容還不錯,歡迎將生活随笔推薦給好友。