一種體感交互的方法及系統的製作方法
2023-08-11 13:42:41 1
一種體感交互的方法及系統的製作方法
【專利摘要】本發明適用於通信領域,提供了一種體感交互的方法,包括:根據不同體感交互需求建立並存儲對應的人體姿態及動作模型資料庫;利用預設攝像頭獲取人體姿態圖像數據;從獲取到的所述人體姿態圖像數據中提取特徵點,並根據所述特徵點匹配計算人體姿態及動作的三維數據;在連續獲取到的多幀所述人體姿態圖像數據中提取運動軌跡,並將所述運動軌跡與已經建立並存儲的對應的人體姿態及動作模型資料庫進行匹配;根據匹配結果識別動作並獲取相應的人體姿態及動作屬性;根據所述人體姿態及動作屬性做出相應的交互動作回應。本發明還提供了一種體感交互的系統。本發明所提供的體感交互的方法及系統能快速有效的實現體感交互。
【專利說明】一種體感交互的方法及系統
【技術領域】
[0001]本發明涉及通信領域,尤其涉及一種體感交互的方法及系統。
【背景技術】
[0002]隨著計算機技術的深入發展,在現代化的工作及生活模式中,人們越來越需要跟各類機器打交道;生產機器人、家庭服務機器人、運動遊戲機器人等現代化的機器人進入人們的工作生活,通過獲取人體姿態及動作數據的新一代體感交互技術進一步加強了人機互動的性能及體驗,隨著機器人處理任務的強度、難度、複雜度的進一步加強,人機互動成為解決問題的一大關鍵技術,而且大部分情況下同一類機器只能做一類交互需求,生活工作上更希望同一機器人在處理過程中能完成不同的交互需求,例如運動交互需求,家庭服務需求等。
[0003]因此,亟需設計一種全新的體感交互的方法及系統,從而可以更簡單、快速、準確的獲取人體姿態及動作三維數據,並精確分析其相應的人體姿態和動作模式,同時能在同一處理過程中可以根據需求處理不同的交互需求。
【發明內容】
[0004]有鑑於此,本發明實施例的目的在於提供一種體感交互的方法及系統,旨在解決現有技術中同一類機器只能做單一類別的交互需求而不能處理不同的交互需求的問題。
[0005]本發明實施例是這樣實現的,一種體感交互的方法,包括:
[0006]根據不同體感交互需求建立並存儲對應的人體姿態及動作模型資料庫;
[0007]利用預設攝像頭獲取人體姿態圖像數據;
[0008]從獲取到的所述人體姿態圖像數據中提取特徵點,並根據所述特徵點匹配計算人體姿態及動作的三維數據;
[0009]在連續獲取到的多幀所述人體姿態圖像數據中提取運動軌跡,並將所述運動軌跡與已經建立並存儲的對應的人體姿態及動作模型資料庫進行匹配;
[0010]根據匹配結果識別動作並獲取相應的人體姿態及動作屬性;
[0011]根據所述人體姿態及動作屬性做出相應的交互動作回應。
[0012]優選的,所述根據不同體感交互需求建立並存儲對應的人體姿態及動作模型資料庫的步驟包括:
[0013]利用雙目攝像頭獲取不同體感交互需求的人體各類姿態和動作的連續多幀圖像數據;
[0014]從所述連續多幀圖像數據中提取特徵點,並根據所述特徵點匹配計算得到所述人體各類姿態及動作的三維數據;
[0015]在獲取到的所述人體各類姿態和動作的連續多幀圖像數據中,提取人體各類姿態及動作的軌跡數據;
[0016]對不同的姿態及動作的軌跡數據進行分類,並根據不同的動作及其屬性建立相應的體感交互回應動作數據;
[0017]根據人體各類姿態及動作的軌跡數據建立並存儲不同的人體姿態、動作以及其相應的體感交互回應動作模型資料庫。
[0018]優選的,所述預設攝像頭包括雙目攝像頭,用於獲取左右兩幅人體姿態圖像數據。
[0019]另一方面,本發明還提供一種體感交互的系統,所述系統包括:
[0020]模型資料庫建立模塊,用於根據不同體感交互需求建立並存儲對應的人體姿態及動作模型資料庫;
[0021]圖像數據獲取模塊,用於利用預設攝像頭獲取人體姿態圖像數據;
[0022]三維數據計算模塊,用於從獲取到的所述人體姿態圖像數據中提取特徵點,並根據所述特徵點匹配計算人體姿態及動作的三維數據;
[0023]運動軌跡匹配模塊,用於在連續獲取到的多幀所述人體姿態圖像數據中提取運動軌跡,並將所述運動軌跡與已經建立並存儲的對應的人體姿態及動作模型資料庫進行匹配;
[0024]動作屬性識別模塊,用於根據匹配結果識別動作並獲取相應的人體姿態及動作屬性;
[0025]交互動作回應模塊,用於根據所述人體姿態及動作屬性做出相應的交互動作回應。
[0026]優選的,所述模型資料庫建立模塊包括:
[0027]圖像獲取子模塊,用於利用雙目攝像頭獲取不同體感交互需求的人體各類姿態和動作的連續多幀圖像數據;
[0028]匹配計算子模塊,用於從所述連續多幀圖像數據中提取特徵點,並根據所述特徵點匹配計算得到所述人體各類姿態及動作的三維數據;
[0029]軌跡獲取子模塊,用於在獲取到的所述人體各類姿態和動作的連續多幀圖像數據中,提取人體各類姿態及動作的軌跡數據;
[0030]數據分類子模塊,用於對不同的姿態及動作的軌跡數據進行分類,並根據不同的動作及其屬性建立相應的體感交互回應動作數據;
[0031]建立存儲子模塊,用於根據人體各類姿態及動作的軌跡數據建立並存儲不同的人體姿態、動作以及其相應的體感交互回應動作模型資料庫。
[0032]優選的,所述預設攝像頭包括雙目攝像頭,用於獲取左右兩幅人體姿態圖像數據。
[0033]在本發明實施例中,本發明提供的技術方案,利用雙目視覺獲取人體姿態圖像數據並計算出在三維空間中人體姿態及動作的三維數據,以獲取人體連續運動的各類姿態及動作的軌跡,並利用已經建立好的人體姿態及動作模型資料庫進行匹配跟蹤,能更快速、準確的獲取並識別動作軌跡,從而估計出人體姿態及動作模式,同時根據已經建立好的不同體感交互需求數據模型做出相應的不同交互回應,進而實現在同一類機器上能處理不同的交互需求,能適合快速、高效的機器人體感交互產品的實現。
【專利附圖】
【附圖說明】
[0034]圖1為本發明一實施方式中體感交互的方法流程圖;
[0035]圖2為本發明一實施方式中圖1所示步驟Sll的詳細流程示意圖;[0036]圖3為本發明一實施方式中體感交互的系統結構示意圖;
[0037]圖4為本發明一實施方式中圖3所示模型資料庫建立模塊101的內部結構示意圖。
【具體實施方式】
[0038]為了使本發明的目的、技術方案及優點更加清楚明白,以下結合附圖及實施例,對本發明進行進一步詳細說明。應當理解,此處所描述的具體實施例僅僅用以解釋本發明,並不用於限定本發明。
[0039]本發明【具體實施方式】提供了一種體感交互的方法,主要包括如下步驟:
[0040]S11、根據不同體感交互需求建立並存儲對應的人體姿態及動作模型資料庫;
[0041]S12、利用預設攝像頭獲取人體姿態圖像數據;
[0042]S13、從獲取到的所述人體姿態圖像數據中提取特徵點,並根據所述特徵點匹配計算人體姿態及動作的三維數據;
[0043]S14、在連續獲取到的多幀所述人體姿態圖像數據中提取運動軌跡,並將所述運動軌跡與已經建立並存儲的對應的人體姿態及動作模型資料庫進行匹配;
[0044]S15、根據匹配結果識別動作並獲取相應的人體姿態及動作屬性;
[0045]S16、根據所述人體姿態及動作屬性做出相應的交互動作回應。
[0046]本發明所提供的一種體感交互的方法,利用雙目視覺獲取人體姿態圖像數據並計算出在三維空間中人體姿態及動作的三維數據,以獲取人體連續運動的各類姿態及動作的軌跡,並利用已經建立好的人體姿態及動作模型資料庫進行匹配跟蹤,能更快速、準確的獲取並識別動作軌跡,從而估計出人體姿態及動作模式,同時根據已經建立好的不同體感交互需求數據模型做出相應的不同交互回應,進而實現在同一類機器上能處理不同的交互需求,能適合快速、高效的機器人體感交互產品的實現。
[0047]以下將對本發明所提供的一種體感交互的方法進行詳細說明。
[0048]請參閱圖1,為本發明一實施方式中體感交互的方法流程圖。
[0049]在步驟Sll中,根據不同體感交互需求建立並存儲對應的人體姿態及動作模型資料庫。
[0050]在本實施方式中,可事先根據不同的體感交互需求建立相應的人體姿態及動作軌跡模型,針對不同的體感交互需求,處理系統首先要建立不同體感交互需求的人體姿態及動作軌跡模型,然後存儲至體感交互處理系統,如步驟Sll所示。在本實施方式中,步驟Sll的詳細流程主要包括步驟S111-S115,如圖2所示。
[0051]請參閱圖2,為本發明一實施方式中圖1所示步驟Sll的詳細流程示意圖。
[0052]在步驟Slll中,利用雙目攝像頭獲取不同體感交互需求的人體各類姿態和動作的連續多幀圖像數據。在本實施方式中,利用雙目攝像頭主要是為了獲取人體各類姿態和動作的左右兩幅圖像數據,這樣為進一步計算得到人體各類姿態和動作的三維立體數據提供原始依據,即基於雙目視覺。
[0053]在步驟S112中,從所述連續多幀圖像數據中提取特徵點,並根據所述特徵點匹配計算得到所述人體各類姿態及動作的三維數據。
[0054]在本實施方式中,特徵點為可以代表在像數據中最能體現人體各類姿態及動作的點,通過特徵點的提取來獲取人體各類姿態和動作的三維數據,其中特徵點的匹配計算算法與不同的特徵點相對應。
[0055]在步驟S113中,在獲取到的所述人體各類姿態和動作的連續多幀圖像數據中,提取人體各類姿態及動作的軌跡數據。
[0056]在本實施方式中,將多巾貞圖像疊加在一起可以獲取運動軌跡,基於這一原理,本發明正是通過獲取到的所述人體各類姿態和動作的連續多幀圖像數據來提取人體各類姿態及動作的軌跡數據。
[0057]在步驟S114中,對不同的姿態及動作的軌跡數據進行分類,並根據不同的動作及其屬性建立相應的體感交互回應動作數據。
[0058]在本實施方式中,不同的姿態及動作對應的運動軌跡不同,例如,清潔動作與遊戲動作的運動軌跡不同,本發明需要對不同的姿態及動作的軌跡數據進行分類,並根據不同的動作及其屬性建立相應的體感交互回應動作數據。
[0059]在步驟S115中,根據人體各類姿態及動作的軌跡數據建立並存儲不同的人體姿態、動作以及其相應的體感交互回應動作模型資料庫。
[0060]請繼續參閱圖1,在步驟S12中,利用預設攝像頭獲取人體姿態圖像數據。在本實施方式中,所述預設攝像頭包括雙目攝像頭,用於獲取左右兩幅人體姿態圖像數據,這樣為進一步計算得到人體各類姿態和動作的三維立體數據提供原始依據,即基於雙目視覺。
[0061]在步驟S13中,從獲取到的所述人體姿態圖像數據中提取特徵點,並根據所述特徵點匹配計算人體姿態及動作的三維數據。
[0062]在本實施方式中,特徵點為可以代表在像數據中最能體現人體各類姿態及動作的點,通過特徵點的提取來獲取人體各類姿態和動作的三維數據,其中特徵點的匹配計算算法與不同的特徵點相對應。
[0063]在步驟S14中,在連續獲取到的多幀所述人體姿態圖像數據中提取運動軌跡,並將所述運動軌跡與已經建立並存儲的對應的人體姿態及動作模型資料庫進行匹配。在本實施方式中,將多幀圖像疊加在一起可以獲取運動軌跡,基於這一原理,本發明正是通過獲取到的所述人體各類姿態和動作的連續多幀圖像數據來提取人體各類姿態及動作的軌跡數據。
[0064]在步驟S15中,根據匹配結果識別動作並獲取相應的人體姿態及動作屬性。
[0065]在本實施方式中,提取到的運動軌跡可能與已經建立並存儲的對應的人體姿態及動作模型資料庫中的模型不匹配,這時將不予處理,或者,在其他實施方式中,將新的運動軌跡添加到該人體姿態及動作模型資料庫中以便於下次應用時進行相關處理;但是,當提取到的運動軌跡與已經建立並存儲的對應的人體姿態及動作模型資料庫中的模型匹配時,就識別動作並從該人體姿態及動作模型資料庫中獲取相應的人體姿態及動作屬性。
[0066]在步驟S16中,根據所述人體姿態及動作屬性做出相應的交互動作回應。在本實施方式中,針對不同的體感交互需求,例如家庭清潔、遊戲運動、生產服務都有其特有的動作軌跡模型,通過事先獲取其人體姿態及其動作的相關數據建立對應的人體姿態及動作模型資料庫,用於機器人體感交互過程中識別並在交互過程中作出相應的回應。在本實施方式中,通過雙目視覺系統獲取圖像數據、計算獲得人體姿態及動作的三維數據、通過匹配已建立的體感交互需求中的人體姿態及動作模型資料庫、快速計算得到人體姿態及相應的動作幅度、速度等屬性,最後體感交互系統據此回應相應的交互動作。
[0067]本發明所提供的一種體感交互的方法,利用雙目視覺獲取人體姿態圖像數據並計算出在三維空間中人體姿態及動作的三維數據,以獲取人體連續運動的各類姿態及動作的軌跡,並利用已經建立好的人體姿態及動作模型資料庫進行匹配跟蹤,能更快速、準確的獲取並識別動作軌跡,從而估計出人體姿態及動作模式,同時根據已經建立好的不同體感交互需求數據模型做出相應的不同交互回應,進而實現在同一類機器上能處理不同的交互需求,能適合快速、高效的機器人體感交互產品的實現。
[0068]本發明【具體實施方式】還提供一種體感交互的系統10,主要包括:
[0069]模型資料庫建立模塊101,用於根據不同體感交互需求建立並存儲對應的人體姿態及動作模型資料庫;
[0070]圖像數據獲取模塊102,用於利用預設攝像頭獲取人體姿態圖像數據;
[0071]三維數據計算模塊103,用於從獲取到的所述人體姿態圖像數據中提取特徵點,並根據所述特徵點匹配計算人體姿態及動作的三維數據;
[0072]運動軌跡匹配模塊104,用於在連續獲取到的多幀所述人體姿態圖像數據中提取運動軌跡,並將所述運動軌跡與已經建立並存儲的對應的人體姿態及動作模型資料庫進行匹配;
[0073]動作屬性識別模塊105,用於根據匹配結果識別動作並獲取相應的人體姿態及動作屬性;
[0074]交互動作回應模塊106,用於根據所述人體姿態及動作屬性做出相應的交互動作回應。
[0075]本發明所提供的一種體感交互的系統10,利用雙目視覺獲取人體姿態圖像數據並計算出在三維空間中人體姿態及動作的三維數據,以獲取人體連續運動的各類姿態及動作的軌跡,並利用已經建立好的人體姿態及動作模型資料庫進行匹配跟蹤,能更快速、準確的獲取並識別動作軌跡,從而估計出人體姿態及動作模式,同時根據已經建立好的不同體感交互需求數據模型做出相應的不同交互回應,進而實現在同一類機器上能處理不同的交互需求,能適合快速、高效的機器人體感交互產品的實現。
[0076]以下將對本發明所提供的一種體感交互的系統10進行詳細說明。
[0077]請參閱圖3,所示為本發明一實施方式中體感交互的系統10的結構示意圖。在本實施方式中,體感交互的系統10包括模型資料庫建立模塊101、圖像數據獲取模塊102、三維數據計算模塊103、運動軌跡匹配模塊104、動作屬性識別模塊105以及交互動作回應模塊 106。
[0078]模型資料庫建立模塊101,用於根據不同體感交互需求建立並存儲對應的人體姿態及動作模型資料庫。
[0079]在本實施方式中,可事先根據不同的體感交互需求建立相應的人體姿態及動作軌跡模型,針對不同的體感交互需求,處理系統首先要建立不同體感交互需求的人體姿態及動作軌跡模型,然後存儲至體感交互處理系統。在本實施方式中,模型資料庫建立模塊101的內部結構詳細包括:圖像獲取子模塊1011、匹配計算子模塊1012、軌跡獲取子模塊1013、數據分類子模塊1014以及建立存儲子模塊1015,如圖4所示。
[0080]請參閱圖4,所示為本發明一實施方式中圖3所示模型資料庫建立模塊101的內部結構示意圖。
[0081 ] 圖像獲取子模塊1011,用於利用雙目攝像頭獲取不同體感交互需求的人體各類姿態和動作的連續多幀圖像數據。在本實施方式中,利用雙目攝像頭主要是為了獲取人體各類姿態和動作的左右兩幅圖像數據,這樣為進一步計算得到人體各類姿態和動作的三維立體數據提供原始依據,即基於雙目視覺。
[0082]匹配計算子模塊1012,用於從所述連續多幀圖像數據中提取特徵點,並根據所述特徵點匹配計算得到所述人體各類姿態及動作的三維數據。
[0083]在本實施方式中,特徵點為可以代表在像數據中最能體現人體各類姿態及動作的點,通過特徵點的提取來獲取人體各類姿態和動作的三維數據,其中特徵點的匹配計算算法與不同的特徵點相對應。
[0084]軌跡獲取子模塊1013,用於在獲取到的所述人體各類姿態和動作的連續多幀圖像數據中,提取人體各類姿態及動作的軌跡數據。
[0085]在本實施方式中,將多幀圖像疊加在一起可以獲取運動軌跡,基於這一原理,本發明正是通過獲取到的所述人體各類姿態和動作的連續多幀圖像數據來提取人體各類姿態及動作的軌跡數據。
[0086]數據分類子模塊1014,用於對不同的姿態及動作的軌跡數據進行分類,並根據不同的動作及其屬性建立相應的體感交互回應動作數據。
[0087]在本實施方式中,不同的姿態及動作對應的運動軌跡不同,例如,清潔動作與遊戲動作的運動軌跡不同,本發明需要對不同的姿態及動作的軌跡數據進行分類,並根據不同的動作及其屬性建立相應的體感交互回應動作數據。
[0088]建立存儲子模塊1015,用於根據人體各類姿態及動作的軌跡數據建立並存儲不同的人體姿態、動作以及其相應的體感交互回應動作模型資料庫。
[0089]請繼續參閱圖3,圖像數據獲取模塊102,用於利用預設攝像頭獲取人體姿態圖像數據。在本實施方式中,所述預設攝像頭包括雙目攝像頭,用於獲取左右兩幅人體姿態圖像數據,這樣為進一步計算得到人體各類姿態和動作的三維立體數據提供原始依據,即基於雙目視覺。
[0090]三維數據計算模塊103,用於從獲取到的所述人體姿態圖像數據中提取特徵點,並根據所述特徵點匹配計算人體姿態及動作的三維數據。
[0091]在本實施方式中,特徵點為可以代表在像數據中最能體現人體各類姿態及動作的點,通過特徵點的提取來獲取人體各類姿態和動作的三維數據,其中特徵點的匹配計算算法與不同的特徵點相對應。
[0092]運動軌跡匹配模塊104,用於在連續獲取到的多幀所述人體姿態圖像數據中提取運動軌跡,並將所述運動軌跡與已經建立並存儲的對應的人體姿態及動作模型資料庫進行匹配。在本實施方式中,將多幀圖像疊加在一起可以獲取運動軌跡,基於這一原理,本發明正是通過獲取到的所述人體各類姿態和動作的連續多幀圖像數據來提取人體各類姿態及動作的軌跡數據。
[0093]動作屬性識別模塊105,用於根據匹配結果識別動作並獲取相應的人體姿態及動作屬性。
[0094]在本實施方式中,提取到的運動軌跡可能與已經建立並存儲的對應的人體姿態及動作模型資料庫中的模型不匹配,這時將不予處理,或者,在其他實施方式中,將新的運動軌跡添加到該人體姿態及動作模型資料庫中以便於下次應用時進行相關處理;但是,當提取到的運動軌跡與已經建立並存儲的對應的人體姿態及動作模型資料庫中的模型匹配時,就識別動作並從該人體姿態及動作模型資料庫中獲取相應的人體姿態及動作屬性。
[0095]交互動作回應模塊106,用於根據所述人體姿態及動作屬性做出相應的交互動作回應。在本實施方式中,針對不同的體感交互需求,例如家庭清潔、遊戲運動、生產服務都有其特有的動作軌跡模型,通過事先獲取其人體姿態及其動作的相關數據建立對應的人體姿態及動作模型資料庫,用於機器人體感交互過程中識別並在交互過程中作出相應的回應。在本實施方式中,通過雙目視覺系統獲取圖像數據、計算獲得人體姿態及動作的三維數據、通過匹配已建立的體感交互需求中的人體姿態及動作模型資料庫、快速計算得到人體姿態及相應的動作幅度、速度等屬性,最後體感交互系統據此回應相應的交互動作。
[0096]本發明所提供的一種體感交互的系統10,利用雙目視覺獲取人體姿態圖像數據並計算出在三維空間中人體姿態及動作的三維數據,以獲取人體連續運動的各類姿態及動作的軌跡,並利用已經建立好的人體姿態及動作模型資料庫進行匹配跟蹤,能更快速、準確的獲取並識別動作軌跡,從而估計出人體姿態及動作模式,同時根據已經建立好的不同體感交互需求數據模型做出相應的不同交互回應,進而實現在同一類機器上能處理不同的交互需求,能適合快速、高效的機器人體感交互產品的實現。
[0097]在本發明實施例中,本發明提供的技術方案,利用雙目視覺獲取人體姿態圖像數據並計算出在三維空間中人體姿態及動作的三維數據,以獲取人體連續運動的各類姿態及動作的軌跡,並利用已經建立好的人體姿態及動作模型資料庫進行匹配跟蹤,能更快速、準確的獲取並識別動作軌跡,從而估計出人體姿態及動作模式,同時根據已經建立好的不同體感交互需求數據模型做出相應的不同交互回應,進而實現在同一類機器上能處理不同的交互需求,能適合快速、高效的機器人體感交互產品的實現。
[0098]值得注意的是,上述實施例中,所包括的各個單元只是按照功能邏輯進行劃分的,但並不局限於上述的劃分,只要能夠實現相應的功能即可;另外,各功能單元的具體名稱也只是為了便於相互區分,並不用於限制本發明的保護範圍。
[0099]另外,本領域普通技術人員可以理解實現上述各實施例方法中的全部或部分步驟是可以通過程序來指令相關的硬體來完成,相應的程序可以存儲於一計算機可讀取存儲介質中,所述的存儲介質,如R0M/RAM、磁碟或光碟等。
[0100]以上所述僅為本發明的較佳實施例而已,並不用以限制本發明,凡在本發明的精神和原則之內所作的任何修改、等同替換和改進等,均應包含在本發明的保護範圍之內。
【權利要求】
1.一種體感交互的方法,其特徵在於,所述方法包括: 根據不同體感交互需求建立並存儲對應的人體姿態及動作模型資料庫; 利用預設攝像頭獲取人體姿態圖像數據; 從獲取到的所述人體姿態圖像數據中提取特徵點,並根據所述特徵點匹配計算人體姿態及動作的三維數據; 在連續獲取到的多幀所述人體姿態圖像數據中提取運動軌跡,並將所述運動軌跡與已經建立並存儲的對應的人體姿態及動作模型資料庫進行匹配; 根據匹配結果識別動作並獲取相應的人體姿態及動作屬性; 根據所述人體姿態及動作屬性做出相應的交互動作回應。
2.如權利要求1所述的體感交互的方法,其特徵在於,所述根據不同體感交互需求建立並存儲對應的人體姿態及動作模型資料庫的步驟包括: 利用雙目攝像頭獲取不同體感交互需求的人體各類姿態和動作的連續多幀圖像數據; 從所述連續多幀圖像數據中提取特徵點,並根據所述特徵點匹配計算得到所述人體各類姿態及動作的三維數據; 在獲取到的所述人體各類姿態和動作的連續多幀圖像數據中,提取人體各類姿態及動作的軌跡數據; 對不同的姿態及動作的軌 跡數據進行分類,並根據不同的動作及其屬性建立相應的體感交互回應動作數據; 根據人體各類姿態及動作的軌跡數據建立並存儲不同的人體姿態、動作以及其相應的體感交互回應動作模型資料庫。
3.如權利要求1所述的體感交互的方法,其特徵在於,所述預設攝像頭包括雙目攝像頭,用於獲取左右兩幅人體姿態圖像數據。
4.一種體感交互的系統,其特徵在於,所述系統包括: 模型資料庫建立模塊,用於根據不同體感交互需求建立並存儲對應的人體姿態及動作模型資料庫; 圖像數據獲取模塊,用於利用預設攝像頭獲取人體姿態圖像數據; 三維數據計算模塊,用於從獲取到的所述人體姿態圖像數據中提取特徵點,並根據所述特徵點匹配計算人體姿態及動作的三維數據; 運動軌跡匹配模塊,用於在連續獲取到的多幀所述人體姿態圖像數據中提取運動軌跡,並將所述運動軌跡與已經建立並存儲的對應的人體姿態及動作模型資料庫進行匹配;動作屬性識別模塊,用於根據匹配結果識別動作並獲取相應的人體姿態及動作屬性;交互動作回應模塊,用於根據所述人體姿態及動作屬性做出相應的交互動作回應。
5.如權利要求4所述的體感交互的系統,其特徵在於,所述模型資料庫建立模塊包括: 圖像獲取子模塊,用於利用雙目攝像頭獲取不同體感交互需求的人體各類姿態和動作的連續多幀圖像數據; 匹配計算子模塊,用於從所述連續多幀圖像數據中提取特徵點,並根據所述特徵點匹配計算得到所述人體各類姿態及動作的三維數據; 軌跡獲取子模塊,用於在獲取到的所述人體各類姿態和動作的連續多幀圖像數據中,提取人體各類姿態及動作的軌跡數據; 數據分類子模塊,用於對不同的姿態及動作的軌跡數據進行分類,並根據不同的動作及其屬性建立相應的體感交互回應動作數據; 建立存儲子模塊,用於根據人體各類姿態及動作的軌跡數據建立並存儲不同的人體姿態、動作以及其相應的體感交互回應動作模型資料庫。
6.如權利要求4所述的體感交互的系統,其特徵在於,所述預設攝像頭包括雙目攝像頭,用於獲取左右兩幅人體姿態圖像數據。
【文檔編號】G06F3/048GK103646425SQ201310593532
【公開日】2014年3月19日 申請日期:2013年11月20日 優先權日:2013年11月20日
【發明者】程俊, 姜軍, 陳裕華, 吳新宇, 肖謙 申請人:深圳先進技術研究院