一種機器人智能仿真測試方法
2023-12-01 21:39:06 2
一種機器人智能仿真測試方法
【專利摘要】本發明屬於智能信息【技術領域】,具體涉及一種機器人智能仿真測試方法。本發明的方法採用視覺圖像仿真器生成包含視覺背景和目標的仿真視覺圖像;採用跟蹤算法仿真器獲取仿真視覺圖像中的目標,並實時輸出目標脫靶量;機器人仿真器根據目標脫靶量解算出機器人各關節的最優執行值以使機器人的視覺傳感器對準目標,並實現實時跟蹤功能;撤去視覺仿真器、跟蹤算法仿真器和機器人仿真器中的一個或兩個仿真器,並以相應的真實部件代替,以實物、仿真器相結合的方式完成視覺跟蹤機器人的測試。本發明解決了現有技術難以滿足大規模機器人測試要求的技術問題,取得了測試效率高、測試穩定性好、測試精度高的有益效果。
【專利說明】 一種機器人智能仿真測試方法
【技術領域】
[0001]本發明屬於智能信息【技術領域】,具體涉及一種機器人智能仿真測試方法。
【背景技術】
[0002]隨著科學技術信息化、智能化的發展,機器人技術得到了國內外學者的廣泛關注,且呈現出規模越來越大、複雜度越來越高的發展態勢。通過對機器人進行測試,能夠發現設備中隱藏的問題和設計缺陷,是保障機器人質量和可靠性的重要手段。
[0003]傳統的機器人測試手段主要採用人工實驗測試的方式,存在測試效率低、測試穩定性差、測試精度低等缺點,難以滿足大規模機器人的測試要求。\
【發明內容】
[0004]本發明需要解決的技術問題為:現有機器人測試系統測試效率低、測試穩定性差、測試精度低,難以滿足大規模機器人的測試要求。
[0005]本發明的技術方案如下所述:
[0006]一種機器人智能仿真測試方法,包括以下步驟:
[0007]步驟1:通過參數配置計算機初始化參數;
[0008]步驟2:將初始化後的參數傳輸至視覺圖像仿真器;
[0009]步驟3:視覺圖像仿真器接收初始化參數和機器人當前狀態後生成包含視覺背景和目標的仿真視覺圖像;
[0010]步驟4:跟蹤算法仿真器接收仿真視覺圖像後,對圖像進行智能識別,獲取仿真視覺圖像中的目標,並實時輸出目標脫靶量;
[0011]步驟5:機器人仿真器接收到目標脫靶量後,根據目標脫靶量解算出機器人各關節的最優執行值以使機器人的視覺傳感器對準目標,並通過控制仿真模塊實現實時跟蹤功倉泛;
[0012]步驟6:返回步驟2,記錄跟蹤算法仿真器輸出的脫靶量直至其穩定在步驟I設置的系統穩定閾值範圍內;
[0013]步驟7:根據測試需求撤去上述視覺仿真器、跟蹤算法仿真器和機器人仿真器中的一個或兩個仿真器,並以相應的真實部件代替,之後重複步驟上述步驟1-5,並記錄跟蹤算法輸出的脫靶量,以實物、仿真器相結合的方式完成視覺跟蹤機器人的測試:若脫靶量小於等於系統穩定閾值,則機器人合格;否則,機器人不合格。
[0014]作為優選方案:步驟3包括以下步驟:
[0015]步驟3.1:通過初始化的參數和視覺跟蹤機器人狀態,從已經獲得的當前工作環境下的魚眼全景圖像中仿真出視覺傳感器拍攝到的背景圖像區域,並將該區域魚眼圖像轉換成經典圖像;
[0016]步驟3.2:對需要跟蹤的目標進行建模仿真
[0017]步驟3.3:結合目標在圖像背景中的實時位置將圖像背景和仿真的目標圖像進行圖像融合,形成最終的仿真視覺圖像。
[0018]作為優選方案:步驟3.2包括以下步驟:
[0019]步驟3.2.1:對目標外形、實時空間位置及反射係數進行三維建模;
[0020]步驟3.3.2:對三維建模後的目標表面劃分計算網格;
[0021]步驟3.2.3:通過設置在機器人上的視覺傳感器位置和姿態對目標表面每個網格節點進行投影,將網格節點投影到成像平面中;
[0022]步驟3.2.4:通過光源位置計算每個網格節點的光線反射角,結合目標反射係數並通過光線反射角大小仿真出該網格節點的圖像亮度;
[0023]步驟3.2.5:對於不同的網格節點投影到成像平面上同一個像素點的情況,選擇離相機位置最近的那個節點作為成像點,其他網格節點數據由於被遮擋不再進行仿真計笪
ο
[0024]本發明的有益效果為:
[0025](I)本發明的一種機器人智能仿真測試方法,將計算機技術、機械技術、信號處理技術、傳感器技術等相關理論和技術相結合,能夠顯著提高測試效率、穩定性和精度,能夠滿足大規模視覺跟蹤機器人的測試要求;
[0026](2)本發明的一種機器人智能仿真測試方法,能夠根據不同應用設計不同測試場景和流程,測試目的指向性強;
[0027](3)本發明的一種機器人智能仿真測試方法,通過精確的定時與觸發時鐘,能夠實現系統同步;
[0028](4)本發明的一種機器人智能仿真測試方法,實現了視覺跟蹤機器人的智能檢測與及時反饋,測試人員能夠及時掌握系統運作狀況和存在問題,有效提高工作效率,可以廣泛應用於農業、工業、交通、國防等領域。
【專利附圖】
【附圖說明】
[0029]圖1為本發明的一種機器人智能仿真測試方法設備布局圖。
【具體實施方式】
[0030]下面結合附圖和實施例對本發明的一種機器人智能仿真測試方法進行詳細說明。
[0031]本發明涉及到的一種機器人的功能及工作原理:
[0032]該機器人為一種基於視覺的目標跟蹤機器人,主要功能為:對設定的運動目標進行監視跟蹤,並實時輸出目標在視覺傳感器(如相機)中的實時位置。該機器人主要包含了機器人初始參數配置模塊、機器人執行機構(如機械臂)、目標檢測跟蹤模塊和視覺傳感器。工作原理:首先對機器人各參數進行初始化配置,視覺傳感器拍攝到運動目標後通過目標檢測跟蹤模塊從拍攝的圖像中找出需跟蹤目標並輸出目標在圖像中的實時位置(即脫靶量),機器人執行機構接收脫靶量後根據目標脫靶量解算出機器人各關節的最優執行值以使機器人的視覺傳感器對準目標,並通過控制模塊實現跟蹤功能。
[0033]如圖1所示,實現本實施例方法的機器人智能仿真測試系統,包括參數配置計算機、視覺仿真器、跟蹤算法仿真器和機器人仿真器:參數配置計算機於仿真測試初始時刻進行參數配置;視覺仿真器仿真出機器人拍攝到的視覺圖像;跟蹤算法仿真器對視覺仿真器輸出的仿真視覺圖像進行智能識別並輸出目標在仿真圖像中的位置,即目標脫靶量;機器人仿真器根據機器人當前狀態和目標脫靶量規劃機器人的跟蹤任務,並將機器人仿真器執行跟蹤任務後的新狀態反饋至視覺仿真器。所述機器人的狀態,是指機器人各關節的轉動角度狀態。
[0034]所述參數配置計算機主要對視覺仿真器的解析度和視場角、機器人仿真器的ro控制參數和系統穩定閾值等參數進行配置。
[0035]所述視覺仿真器包括視覺背景仿真模塊和目標仿真模塊:視覺背景仿真模塊根據機器人當前狀態及背景環境仿真出當前機器人的視覺傳感器能夠拍攝到的環境背景圖像;目標仿真模塊根據機器人當前狀態和目標的形狀、當前空間位置及光學特性仿真出目標圖像;環境背景圖像和目標圖像採用現有技術相融合,形成仿真視覺圖像。
[0036]所述跟蹤算法仿真器採用卡爾曼濾波算法,能夠對機動目標進行有效監視及跟足示O
[0037]所述機器人仿真器包括機器人運動仿真模塊和控制仿真模塊:機器人運動仿真模塊用於模擬機器人機械機構的運動狀態;控制仿真模塊用於接收機器人目標狀態並結合其當前狀態後輸出行進路線等控制策略。其中,機器人目標狀態是指設置在機器人上的視覺傳感器指向被跟蹤目標時,機器人各機械關節的轉動角度狀態;機器人當前狀態是指機器人當前時刻各關節的轉動角度狀態。
[0038]本實施例的一種機器人智能仿真測試方法,通過以下步驟進行測試:
[0039]步驟1:通過參數配置計算機初始化參數。
[0040]步驟2:將初始化後的參數傳輸至視覺圖像仿真器。
[0041]步驟3:視覺圖像仿真器接收初始化參數和機器人當前狀態後生成包含視覺背景和目標的仿真視覺圖像。
[0042]步驟3.1:通過初始化的參數和視覺跟蹤機器人狀態,從已經獲得的當前工作環境下的魚眼全景圖像中仿真出視覺傳感器拍攝到的背景圖像區域,並將該區域魚眼圖像轉換成經典圖像。
[0043]步驟3.2:對需要跟蹤的目標進行建模仿真
[0044]步驟3.2.1:對目標外形、實時空間位置及反射係數等參數進行三維建模;
[0045]步驟3.2.2:對三維建模後的目標表面劃分計算網格;
[0046]步驟3.2.3:通過設置在機器人上的視覺傳感器位置和姿態對目標表面每個網格節點進行投影,將網格節點投影到成像平面中;
[0047]步驟3.2.4:通過光源位置計算每個網格節點的光線反射角,結合目標反射係數並通過光線反射角大小仿真出該網格節點的圖像亮度;
[0048]步驟3.2.5:對於不同的網格節點投影到成像平面上同一個像素點的情況,選擇離相機位置最近的那個節點作為成像點,其他網格節點數據由於被遮擋不再進行仿真計笪
ο
[0049]步驟3.3:結合目標在圖像背景中的實時位置將圖像背景和仿真的目標圖像進行圖像融合,形成最終的仿真視覺圖像。
[0050]步驟4:跟蹤算法仿真器接收仿真視覺圖像後,對圖像進行智能識別,獲取仿真視覺圖像中的目標,並實時輸出目標脫靶量。
[0051]步驟5:機器人仿真器接收到目標脫靶量後,根據目標脫靶量解算出機器人各關節的最優執行值以使機器人的視覺傳感器對準目標,並通過控制仿真模塊實現實時跟蹤功倉泛。
[0052]步驟6:返回步驟2,記錄跟蹤算法仿真器輸出的脫靶量直至其穩定在步驟I設置的系統穩定閾值範圍內;
[0053]步驟7:根據測試需求撤去上述視覺仿真器、跟蹤算法仿真器和機器人仿真器中的一個或兩個仿真器,並以相應的真實部件代替,之後重複步驟上述步驟1-5,並記錄跟蹤算法輸出的脫靶量,以半實物半仿真的方式完成視覺跟蹤機器人的測試:若脫靶量小於等於系統穩定閾值,則機器人合格;否則,機器人不合格。
[0054]以上具體實施例僅用於舉例說明本發明的結構和流程,本領域技術人員在本發明的構思下可以做出多種變形和變化,這些變形和變化均包括在本發明的保護範圍之內。
【權利要求】
1.一種機器人智能仿真測試方法,其特徵在於:包括以下步驟: 步驟1:通過參數配置計算機初始化參數; 步驟2:將初始化後的參數傳輸至視覺圖像仿真器; 步驟3:視覺圖像仿真器接收初始化參數和機器人當前狀態後生成包含視覺背景和目標的仿真視覺圖像; 步驟4:跟蹤算法仿真器接收仿真視覺圖像後,對圖像進行智能識別,獲取仿真視覺圖像中的目標,並實時輸出目標脫靶量; 步驟5:機器人仿真器接收到目標脫靶量後,根據目標脫靶量解算出機器人各關節的最優執行值以使機器人的視覺傳感器對準目標,並通過控制仿真模塊實現實時跟蹤功能;步驟6:返回步驟2,記錄跟蹤算法仿真器輸出的脫靶量直至其穩定在步驟I設置的系統穩定閾值範圍內; 步驟7:根據測試需求撤去上述視覺仿真器、跟蹤算法仿真器和機器人仿真器中的一個或兩個仿真器,並以相應的真實部件代替,之後重複步驟上述步驟1-5,並記錄跟蹤算法輸出的脫靶量,以實物、仿真器相結合的方式完成視覺跟蹤機器人的測試:若脫靶量小於等於系統穩定閾值,則機器人合格;否則,機器人不合格。
2.根據權利要求1所述的一種機器人智能仿真測試方法,其特徵在於: 步驟3包括以下步驟: 步驟3.1:通過初始化的參數和視覺跟蹤機器人狀態,從已經獲得的當前工作環境下的魚眼全景圖像中仿真出視覺傳感器拍攝到的背景圖像區域,並將該區域魚眼圖像轉換成經典圖像; 步驟3.2:對需要跟蹤的目標進行建模仿真 步驟3.3:結合目標在圖像背景中的實時位置將圖像背景和仿真的目標圖像進行圖像融合,形成最終的仿真視覺圖像。
3.根據權利要求2所述的一種機器人智能仿真測試方法,其特徵在於: 步驟3.2包括以下步驟: 步驟3.2.1:對目標外形、實時空間位置及反射係數進行三維建模; 步驟3.3.2:對三維建模後的目標表面劃分計算網格; 步驟3.2.3:通過設置在機器人上的視覺傳感器位置和姿態對目標表面每個網格節點進行投影,將網格節點投影到成像平面中; 步驟3.2.4:通過光源位置計算每個網格節點的光線反射角,結合目標反射係數並通過光線反射角大小仿真出該網格節點的圖像亮度; 步驟3.2.5:對於不同的網格節點投影到成像平面上同一個像素點的情況,選擇離相機位置最近的那個節點作為成像點,其他網格節點數據由於被遮擋不再進行仿真計算。
【文檔編號】G05B17/02GK104199314SQ201410468357
【公開日】2014年12月10日 申請日期:2014年9月15日 優先權日:2014年9月15日
【發明者】莊家煜, 許世衛, 李哲敏, 王東傑, 張超, 陳威, 李幹瓊, 張玉梅, 張永恩 申請人:中國農業科學院農業信息研究所