一種基於語義映射空間構建的圖像檢索方法
2023-05-18 23:08:51
一種基於語義映射空間構建的圖像檢索方法
【專利摘要】本發明公開了一種基於語義映射空間的圖像檢索方法,其特徵是按如下步驟進行:步驟1、學習語義映射空間;步驟2、估計每個未標註圖像的語義概念;步驟3、將語義空間中語義概念對應的圖像進行升序排列;步驟4、輸入待檢索的文本查詢詞,返回語義概念所對應的圖像。本發明能有效地提高圖像檢索的準確性。
【專利說明】一種基於語義映射空間構建的圖像檢索方法
【技術領域】
[0001] 本發明屬於信息檢索【技術領域】,主要涉及一種基於語義映射空間構建的圖像檢索 方法。
【背景技術】
[0002] 21世紀是資訊時代,計算機和網絡技術進一步普及和快速發展,網際網路上以圖像 為代表的多媒體數據呈現爆炸式地增長。因此,圖像檢索技術受到了來自不同領域的研究 人員越來越多的關注,研究人員旨在給用戶提供更優質的圖像瀏覽和檢索服務,以提高圖 像檢索的用戶滿意度。
[0003] 主流的圖像檢索方法當前可以分為兩類:基於文本的圖像檢索和基於內容的圖像 檢索。
[0004] 基於文本的圖像檢索方法通常利用文本信息來描述圖像內容,使用簡短的注釋或 者文本標籤來對資料庫中的圖像進行索引。基於文本的圖像檢索方法的有效性嚴重依賴於 檢索算法的性能以及文本標註的準確性。然而,對網際網路時代的大規模網絡圖像進行標註 卻是一件極其耗費人力物力的事情,隨著網絡圖像數據的規模呈幾何級數式地增長,基於 文本的圖像檢索方法已經不再適用。
[0005] 基於內容的圖像檢索方法是一種"以圖搜圖"的方法,主要存在兩個問題:首先,每 次查詢用戶都被要求提高一個事例圖像;其次,視覺查詢由於眾所周知"語義鴻溝"的存在, 其無法表示高層語義概念。
[0006] 因此,目前的網絡圖像檢索方法都不再滿足實際需求,導致目前網絡圖像檢索的 準確度不高,效率低下。
【發明內容】
[0007] 本發明旨在解決當前網絡圖像檢索準確度不高以及效率低下的問題,提出了一種 基於語義映射空間構建的圖像檢索方法,能有效地提高圖像檢索的準確性。
[0008] 本發明為解決技術問題採用如下技術方案:
[0009] 本發明一種基於語義映射空間的圖像檢索方法的特點是按如下步驟進行:
[0010] 步驟1、學習語義映射空間F :
[0011] 步驟1. 1、從網絡圖像數據集中獲取訓練圖像數據集與未標註圖像數據集,所述訓 練圖像數據集包括η幅訓練圖像;所述未標註圖像數據集包括m幅未標註圖像;獲取與所 述η幅訓練圖像相對應的語義概念,並令相同的語義概念用一個索引號來索引,從而獲得 語義概念集G = {gu g2,…,gY,…,gc},γ為索引號,γ e {1,2,…c},c表徵所述語義概 念的個數,c < η ;
[0012] 步驟1.2、提取所述訓練圖像數據集和所述未標註圖像數據集中每幅訓練圖像 和未標註圖像的高維特徵向量,從而獲得高維特徵向量集X = {xu ···,χ。#}; d表示所述訓練圖像和未標註圖像的特徵維數;
[0013] 步驟1. 3、利用式(1)獲得任意兩個語義概念ga和ge之間的距離Da, e,從而利用 式(2)獲得在所述語義概念集G中任意兩個語義概念ga和ge之間距離D a,e所組成的語 義距離矩陣DelT'
[0014]
【權利要求】
1. 一種基於語義映射空間的圖像檢索方法,其特徵是按如下步驟進行: 步驟1、學習語義映射空間F: 步驟1. 1、從網絡圖像數據集中獲取訓練圖像數據集與未標註圖像數據集,所述訓練圖 像數據集包括η幅訓練圖像;所述未標註圖像數據集包括m幅未標註圖像;獲取與所述η幅 訓練圖像相對應的語義概念,並令相同的語義概念用一個索引號來索引,從而獲得語義概 念集G = {gp g2,…,gY,…,g。},γ為索引號,γ e {1,2, ···(:},c表徵所述語義概念的個 數,c彡η ; 步驟1.2、提取所述訓練圖像數據集和所述未標註圖像數據集中每幅訓練圖像和 未標註圖像的高維特徵向量,從而獲得高維特徵向量集Χ= ; d表示所述訓練圖像和未標註圖像的特徵維數; 步驟1.3、利用式(1)獲得任意兩個語義概Sga和80之間的距離Da, e,從而利用式 (2)獲得在所述語義概念集G中任意兩個語義概念ga和ge之間距離Da, e所組成的語義 距離矩陣De!Txt':
(1)
(2) 式⑴中:a、β e {1,2,…c}分別表不語義概念ga和ge的索引號;f (ga)表不包含 語義概Sga的訓練圖像個數,f(ge)表示包含語義概念ge的訓練圖像個數;f(g a,ge)表 示既包含語義概念ga又包含語義概念80的訓練圖像個數;K表示所述網絡圖像數據集中 所有網絡圖像的個數; 步驟1.4、定義語義概念ga在所述語義映射空間F上的映射為語義概念原型 ρ" ;由每一個語義概念所對應的語義概念原型構成語義概念原型矩陣P,
1. 4.1、利用式(3)計算矩陣D;
(3) 式(3)中:1£置^為單位矩陣;ieirxl表示全為1的列向量; 1. 4. 2、按照δ = νΛντ的分解形式對矩陣?進行分解,獲得矩陣V和Λ ; 1.4. 3、採用式(4)獲得語義概念原型矩陣Ρ,從而獲得每一個語義概念所對應的語義 概念原型Pi, ρ2,…,Ρ ",…,Pc :
(4) 步驟1. 5、利用式(5)學習圖像映射矩陣W : (5) 式(5)中:x,. eMrf表示第i幅訓練圖像的高維特徵向量;yi e {1,2, ···,c}表示第i幅 訓練圖像的語義概念的索引號;λ為正則化參數; 由所述語義概念原型矩陣Ρ和圖像映射矩陣W獲得所述語義映射空間F; 步驟2、利用式(6)獲得所述未標註圖像數據集中任一未標註圖像所對應的語義概念 的索引號Θ,從而估計每個未標註圖像的語義概念:
(6) 式(6)中:^表示所述未標註圖像數據集中任一未標註圖像的高維特徵向量; t ^ (n+1,…,n+m); 步驟3、每個語義概念ge都對應一組圖像,Θ e {1,2,…,c};將ge對應的圖像的高 維特徵向量組成向量集,所述向量集{xei,xe2,…,Χ01}按照|p 5-wx&|的大小進行圖像 升序排列;j e {1,2,···,1}; 步驟4、輸入待檢索的文本查詢詞,找到所述文本查詢詞在語義映射空間F中所對應 的語義概念,並按照步驟3進行升序排列後,返回所述語義概念所對應的圖像。
2.根據權利要求1所述的基於語義映射空間構建的圖像檢索方法,其特徵是,當有新 的語義概念加入到語義映射空間F時,所述步驟1的語義映射空間F是按如下步驟進行更 新: 步驟1. 1、利用式(7)獲得新的語義概念gc;+1所對應的語義概念原型Pc;+1 :
(7) 式⑵中:De+1,0為語義概念ge+1和語義概念ge之間的語義距離,Θ e {1,2,···,ο}; 並利用式(8)獲得新的語義概念原型矩陣Ρ% P* = P U pc+1 (8) 式⑶中:更新後得到的語義概念原型矩陣P#= {Pl,P2,…PuP。.]; 步驟1. 2、利用式(9)獲得新的圖像映射矩陣礦:
(9) 式(9)中:yi為第i幅訓練圖像所對應的語義概念索引號;X' k為所述新的語義概念 gc;+1對應的第k幅圖像的高維特徵向量,ke {1,2, ···,(!};由所述新的語義概念原型矩陣1^ 和新的圖像映射矩陣礦獲得更新的所述語義映射空間F。
【文檔編號】G06F17/30GK104156433SQ201410393094
【公開日】2014年11月19日 申請日期:2014年8月11日 優先權日:2014年8月11日
【發明者】汪萌, 楊勳, 洪日昌 申請人:合肥工業大學