新四季網

請求信息的處理方法、裝置以及多處理器存儲系統的製作方法

2023-05-29 03:00:41

專利名稱:請求信息的處理方法、裝置以及多處理器存儲系統的製作方法
技術領域:
本發明涉及存儲管理技術,特別是涉及一種請求信息的處理方法、裝置 以及多處理器存儲系統。
背景技術:
隨著存儲系統的不斷發展,目前的磁碟陣列存儲系統大部分都提供邏輯
單元號(Logic Unit Number, LUN ) —級的數據高速緩沖存儲器(cache), 用來提高存儲系統的性能。
現有技術中的多處理器存儲系統中,對cache的管理一般採用集中式管 理,cache是共享的,系統中的各中央處理器(Central Processing Unit, CPU)均可訪問共享的cache空間,每個CPU均可訪問具有相同邏輯塊地址 (Logic Block Addressing, LBA )的讀寫請求信息,所有的cache空間淨皮所 有CPU集中共享,即CPU可訪問所有cache中存儲的數據。因此,對於集中 式管理的cache需要採用鎖來進行訪問互斥,以對共享數據進行順序訪問, 以保證每個CPU對cache訪問的有效性和可靠性。但是,鎖的頻繁使用會導 致整個存儲系統的CPU佔用率增加,降低整個存儲系統的數據處理能力和性 能。
綜上,發明人實現本發明的過程中發現現有的多處理器存儲系統中,CPU 可處理所有LBA對應的請求信息,由於cache釆用集中式管理,CPU訪問cache 時需使用鎖保護,而頻繁的使用鎖操作會提高CPU的佔用率,降低了 CPU訪 問cache的效率,降^^整個存儲系統的讀寫性能。

發明內容
本發明的目的是提供一種請求信息的處理方法、裝置以及多處理器存儲
系統,可有效降低CPU的佔用率,提高CPU訪問cache的效率和存儲系統的 讀寫性能。
為實現上述目的,本發明實施例提供了一種請求信息的處理方法,包括
根據接收的請求信息中攜帶的要訪問的存儲空間的邏輯塊地址,確定所 述請求信息歸屬的中央處理器;
將所述請求信息發送至所述請求信息歸屬的中央處理器,由所述中央處 理器對所述請求信息進行處理。
本發明實施例還提供了一種請求信息處理裝置,包括
歸屬確定模塊,用於根據接收的請求信息中攜帶的要訪問的存儲空間的 邏輯塊地址,確定所述請求信息歸屬的中央處理器;
請求發送模塊,用於將所述請求信息發送至所述請求信息歸屬的中央處 理器,由所述中央處理器對所述請求信息進行處理。
本發明實施例還提供了 一種多處理器存儲系統,包括至少兩個中央處理 器和與各中央處理器連接的存儲裝置,以及與各中央處理器連接的請求信息
處理裝置,其中,所述請求信息裝置包括
歸屬確定模塊,用於根據接收的請求信息中攜帶的要訪問的存儲空間的 邏輯塊地址,確定所述請求信息歸屬的中央處理器;
請求發送模塊,用於將所述請求信息發送至所述請求信息歸屬的中央處 理器,由所述中央處理器對所述請求信息進行處理。
本發明實施例通過將接收到的請求信息歸屬到相應的CPU進行處理,使 得每個CPU只處理歸屬於自己管理的請求信息,每個CPU從其接收隊列接收 的請求訪問的cache空間是歸屬於自己管理的空間,不會發生多個CPU同時 訪問一個cache內的數據的情況,因此,CPU訪問cache時不需要進行鎖操作, 有效保證了 CPU訪問cache的有效性和可靠性,提高了 CPU訪問cache的效率和整個存儲系統的讀寫性能。


為了更清楚地說明本發明實施例或現有技術中的技術方案,下面將對 實施例或現有技術描述中所需要使用的附圖作簡單地介紹,顯而易見地, 下面描述中的附圖僅僅是本發明的 一些實施例,對於本領域普通技術人員 來講,在不付出創造性勞動性的前提下,還可以根據這些附圖獲得其他的 附圖。
圖1為本發明實施例一所提供的請求信息的處理方法流程示意圖; 圖2為本發明實施例二所才是供的請求信息的處理方法流程示意圖; 圖3為本發明實施例三所提供的請求信息的處理方法流程示意圖; 圖4為本發明實施例一所提供的請求信息處理裝置的結構示意圖; 圖5為本發明實施例二所提供的請求信息處理裝置中歸屬確定模塊的結 構示意圖6為本發明實施例三所提供的請求信息處理裝置中歸屬確定模塊的結 構示意圖7為本發明實施例所提供的多處理器存儲系統的結構示意圖。
具體實施例方式
下面將結合本發明實施例中的附圖,對本發明實施例中的技術方案進 行清楚、完整地描述,顯然,所描述的實施例僅僅是本發明一部分實施例, 而不是全部的實施例。基於本發明中的實施例,本領域普通技術人員在沒 有做出創造性勞動前提下所獲得的所有其他實施例,都屬於本發明保護的 範圍。
本發明實施例應用於多處理器存儲系統中,其中,多處理器存儲系統 中作為存儲裝置的磁碟陣列可提供LUN —級的數據cache,且每個CPU上
7隻有一個業務線程對cache進4亍訪問;本發明實施例中的各CPU可訪問歸 屬於自己的cache內的數據,即CPU只能處理歸屬於自己管理的LBA對應
的請求信息,所述請求信息可以是訪問存儲器的各種數據的讀寫等請求信 息。具體而言,假設系統中有n個CPU,則每個LUN的1/n部分可歸屬於 不同的CPU管理,各CPU只能對歸屬其管理的cache中存儲的數據進行讀、 寫、添加或刪除等操作。
圖1為本發明實施例一所提供的請求信息的處理方法流程示意圖。該 方法包括
步驟101、根據接收的請求信息中攜帶的要訪問的存儲空間的LBA,確定 所述請求信息歸屬的CPU。
該步驟中,當系統中的埠 n(portn)接收到伺服器發送的請求信息後, 可首先確定該請求信息應歸屬的CPU,即確定可以處理該請求信息的CPU,由 於系統中的每個CPU只處理歸屬其管理的cache中的數據,即每個CPU只處 理歸屬於自己的LBA對應的請求信息,因此,可根據CPU管理的LBA的範圍, 確定埠 n處接收到的請求信息中攜帶的要訪問的存儲空間的LBA應歸屬的 CPU,若請求信息中攜帶的要訪問的存儲空間的LBA落在某一 CPU可處理的LBA 範圍內,則該請求信息歸屬於該CPU。
步驟102、將所述請求信息發送至所述請求信息歸屬的CPU,由CPU對所
述請求信息進行處理。
根據步驟101確定出的該請求信息歸屬的CPU後,將該請求信息發送到 其歸屬的CPU的接收隊列中,並由該CPU對其進行處理。
從以上技術方案可以看出,存儲系統中的各CPU從其接收隊列中接收請 求信息時,其接收到的請求信息均是歸屬於自己處理的請求信息,其訪問的 cache空間只歸屬於自己管理,其它CPU不會在同一時間訪問相同的cache空 間。因此,當CPU的接收隊列中有新的請求信息時,CPU可從自己的接收隊列 中接收請求,根據請求信息中攜帶的要訪問的存儲空間的LBA以及LUN ID查
8找相應的cache查找表,若cache命中,即表明CPU成功的訪問了相應的LBA 數據,請求處理成功,可返回處理結果給CPU,若cache沒有命中,則根據 cache策略進行相應的處理。具體地,CPU訪問cache的過程與現有技術相同, 在此不再贅述。此外,由於每個CPU上只有一個線程對cache進行訪問操作, 因此,CPU對cache的訪問不需要鎖的保護即可保證各CPU訪問cache的可靠 性和穩定性,不會產生衝突,提高了存儲系統的讀寫性能。
可以看出,本發明實施例通過將接收到的請求信息歸屬到相應的CPU進 行處理,使得每個CPU只處理歸屬於自己管理的請求信息,每個CPU從其接 收隊列接收的請求信息所請求訪問的cache空間是歸屬於自己管理的空間, 不會發生多個CPU同時訪問同一個cache中存儲的數據的情況,CPU訪問cache 時也不需要進行鎖操作,有效保證了 CPU訪問cache的有效性和可靠性,提 高了 CPU訪問cache的效率和整個存儲系統的讀寫性能。
圖2為本發明實施例二所提供的請求信息的處理方法流程示意圖。本發 明實施例技術方案中的存儲系統中的各CPU管理的LBA範圍為離散的多段LBA 範圍的地址空間的集合,即每個CPU管理的LBA範圍由多個不是連續的LBA 地址空間組成。如圖2所述,該方法可包括以下步驟
步驟201、根據各CPU管理的地址範圍,對接收到的請求信息進行分解, 使得分解後的各請求信息要訪問的存儲空間的LBA分別屬於不同CPU管理的 範圍內。
當系統中的埠 n接收到伺服器發送的請求信息後,可根據各CPU管理 的LBA地址,分解接收到的請求信息,即將歸屬於CPU管理的LBA對應的請 求信息分解出來,使得分解後的各請求信息的LBA分別屬於不同CPU管理的 範圍。
步驟202、根據分解後的各請求信息要訪問的存儲空間的LBA,確定分解 後的各請求信息歸屬的CPU。
根據步驟201分解後的各請求信息要訪問的存儲空間的LBA,可將各請求信息歸屬到相應的CPU,其中,由於每個CPU管理的均是離散的多段LBA範圍 的地址,因此,對於一段較長LBA的請求信息,其可能歸屬到多個不同的CPU 上。
步驟203、將所述分解後的各請求信息分別發送至各自歸屬的CPU,由各 CPU對分解後的各請求信息進行處理。
確定分解後的各請求信息的歸屬CPU後,即可將分解後的各請求信息分 別發送至各自歸屬的CPU,並由相應的CPU進行處理。
本實施例技術方案中,每個CPU均管理有相應的LBA範圍的cache,當端 口接收到的具有較長LBA地址空間的請求信息時,可根據各CPU管理的LBA 範圍,對請求信息進行分解,其中各CPU管理的LBA範圍可以為離散的LBA 地址空間的集合,這樣,可將一定地址長度的請求信息相應的分解成多個離 散的請求信息,使得每個CPU均可能對該請求信息進行處理,系統對該請求 信息的處理為多個CPU同時對分解後的各請求信息分別進行處理,可有效提 高系統的分發處理能力,提高了對請求信息的處理速度。具體地,本發明實 施例中,各CPU對其接收隊列中的請求信息的處理過程與現有技術相同,在 此不再贅述。
本發明實施例中,可根據CPU管理的LBA範圍對接收到的請求信息進行 分解,每個CPU均處理歸屬於自己的LBA的請求信息,CPU只訪問歸屬於自己 管理的cache,避免多個CPU同時訪問同一個cache中存儲的數據的情況,且 每個CPU管理的LBA範圍可以是離散的LBA的集合,這樣,對於系統接收到 的請求信息,其可能歸屬於多個不同的CPU,使得對請求信息的處理是通過多 個CPU並行處理,提高了整個存儲系統分發處理能力,提高了系統的處理數 據的速度和整個系統的讀寫性能。
此外,本發明實施例中,存儲系統中的各CPU管理的LBA範圍也可是連 續的LBA地址空間,這樣,在對接收到的請求信息進行處理時,同樣可以根 據各CPU管理的LBA範圍對請求信息進行分解,請求信息的分解簡單,且每個CPU處理的請求信息均是歸屬於自己管理的LBA對應的請求信息,可以避 免多個CPU同時訪問同一個cache中存儲的數據的情況。
圖3為本發明實施例三所提供的請求信息的處理方法流程示意圖。本發 明實施例通過哈希(hash)函數確定接收到的請求信息和CPU的歸屬關係, 具體地,如圖3所示,該方法可包括以下步驟
步驟301、根據接收到的請求信息中攜帶的要訪問的存儲空間的LBA的起 始地址,將所述請求信息中攜帶的所述邏輯塊地址按預設地址長度進行分解。
存儲系統中的埠 n接收到伺服器發送的請求信息後,可根據該請求信 息的LBA的起始地址,並按預設地址長度將其分解成多個LBA地址空間的請 求信息,分解後的各請求信息是具有一定LUN空間的請求信息,這裡所述的 LUN空間即指具有預設地址長度的請求信息對應的LUN空間。
步驟302、根據分解後的請求信息中攜帶的要訪問的存儲空間的LBA,計 算分解後的各請求信息中攜帶的邏輯塊地址的hash索引值,從而確定分解後 的各請求信息歸屬的CPU。
經過分解後的各請求信息,可通過hash函數來計算各請求信息中攜帶的 LBA對應的CPU的索引值,確定分解後的各請求信息應歸屬的CPU,其中索引 值代表對應的CPU的值,才艮據該索引值即可確定相應的請求信息對應的CPU。
具體地,假設當前存儲系統有8個CPU核,則索引值可通過將分解後的 請求信息中攜帶的所述LBA對8取才莫運算獲得索引值。或者,也可通過以下 程序計算索引值(Index):
MAX—PRIME—NUMBER 0x9e370001UL
MAX_RESEARCH_TABLE_SIZE_SHIFT 3
Index- (LBA*MAX_PRIME_NIMBER);
Index 〉〉= (32 - MAX—RESEARCH—TABLE—SIZE—SHIFT)。
其中,MAX-PRIME-NUMBER為設置的最大奇數,目的在於提高hash索引值 計算時的隨機性;LBA為分解後的請求信息的起始地址;MAX_RESEARCH—TABLE-SIZE-SHIFT表示的以2為底當前存儲系統的CPU核個數 的對數,即,MAX—RESEARCH—TABLE_SIZE—SHIFT=log2",其中n為當前存+者系 統的CPU的個數,當n = 8時,MAX_RESEARCH-TABLE—SIZE—SHIFT即為3。
步驟303、根據分解後的各請求信息歸屬的CPU,將分解後的各請求信息 分發到各自歸屬的CPU。
通過hash函數確定各請求信息歸屬的CPU後,即可將分解後的各請求信 息分發到各自歸屬的CPU上,並由相應的CPU進行處理。可以看出,通過hash 函數來計算分解後的各請求信息與CPU的歸屬關係,可將具有LUN空間的各 請求信息離散到不同的CPU上,即發送至各CPU的請求信息均是多個離散LUN 空間對應的請求信息的集合,使得CPU的管理空間是經過hash函數計算出來 的離散LUN空間的集合,因此,存儲系統在接收到請求信息後,可將其分解 成具有多個單位LUN空間的請求信息,並離散到各CPU上,每個CPU管理LUN 空間是離散的LUN空間的集合,該請求信息被分散到各CPU上進行處理,有 效提高了存儲系統的分發處理能力,提高了存儲系統對請求信息的處理效率, 同時,可有效保證各CPU對歸屬於該CPU管理的cache中存儲的數據進行處 理,各CPU訪問cache中的數據時不會產生衝突。具體地,本發明實施例中 CPU對請求信息進行處理,訪問cache的過程與現有技術相同,在此不再贅述。
本發明實施例技術方案中,由於使用hash函數計算分解後的各請求信息 中攜帶的邏輯塊地址計算哈希索引值,使分解後的各請求信息能夠歸屬於不 同的CPU,提高對請求信息處理的並發性。並且,由於歸屬到各個CPU上的管 理空間是經過hash函數計算出來的離散LUN對應的存儲空間的集合,假定離 散的LUN空間大小為塊(chunk ),則歸屬於每個CPU上的LUN管理粒度即為 chunk,在利用hash函ibH"算hash索引ji時,可以chunk為單^f立進4亍hash 索引值的計算,從而得到一定地址長度的請求信息,例如該chunk可以為1M、 2M等,具體地可根據實際需要而設定,chunk單位越小,其離散出的各請求 信息的數量就越多。
12可以看出,本發明實施例技術方案通過hash函數對接收到的請求信息進 行處理,可將請求信息離散到不同的CPU進行處理,且每個CPU接收到的請 求信息均是自己管理的LBA範圍的請求信息,即每個CPU只處理歸屬於自己 管理的cache中存儲的數據,CPU訪問cache時不需要進行鎖操作,不會出現 多個CPU訪問同一 cache中存儲的數據的情況,提高了 CPU訪問cache的有 效性和可靠性,提高了 CPU訪問cache的效率;此外,通過hash函數將請求 信息分散到不同的CPU分別進行處理,每個CPU上的管理空間是經過hash函 數計算得到離散LUN空間的集合,有效提高了整個存儲系統的分發處理能力, 可以在較短的時間內將請求信息分發到不同的CPU上進行處理,提高整個系 統的處理能力和整個系統的性能。
此外,上述本發明各實施例可應用於NUMA結構的多處理器存儲系統中, 可為每個CPU分配近端的內存,使得每個CPU訪問的cache空間均可在自己 的本地內存上,不會出現CPU訪問遠地緩存時出現的時延差異,保證了 CPU 訪問cache的一致性。
上述各實施例中,對接收到的請求信息進行分解前,還可根據請求信息 中攜帶的要訪問的存儲空間的LBA確定該請求信息是否歸屬於同一CPU,若該 請求信息中攜帶的要訪問的存儲空間的LBA屬於同一 CPU管理的LBA範圍內, 則就不需要進行分解,直接將其分發到其歸屬的CPU即可。
圖4為本發明實施例一所^是供的請求信息處理裝置的結構示意圖。該裝 置包括歸屬確定模塊1和請求發送模塊2,其中,
歸屬確定模塊1,用於根據接收的請求信息中攜帶的要訪問的存儲空間的 LBA,確定所述請求信息歸屬的中央處理器;
請求發送模塊2,用於將所述請求信息發送至所述請求信息歸屬的CPU, 由所述CPU對所述請求信息進行處理。
當歸屬確定模塊1確定出請求信息歸屬的CPU後,由請求發送模塊2將 該請求信息發送至其歸屬的CPU進行處理,CPU可根據其接收隊列中的請求信息中攜帶的要訪問的存儲空間的LBA及LUN ID訪問存儲裝置的cache,實現 對請求信息的處理。具體地,CPU對請求信息的處理過程與現有技術相同, 在此不再贅述。
本發明實施例可以將接收到的請求信息歸屬到相應的CPU進行處理,使 得每個CPU只處理歸屬自己管理的LAB對應的請求信息,每個CPU訪問的cache 空間是歸屬自己管理的空間,不會發生多個CPU同時訪問一個cache中存儲 的數據的情況,CPU訪問cache時不需要進行鎖操作,有效保證了 CPU訪問 cache的有效性和可靠性,提高了 CPU訪問cache的效率和整個存儲系統的讀 寫性能。
圖5為本發明實施例二所提供的請求信息處理裝置中歸屬確定模塊的結 構示意圖。在上述實施例一技術方案的基礎上,本實施例中的歸屬確定模塊l 可包括第一分解單元11和第一歸屬單元12,其中,
第一分解單元ll,用於根據各CPU管理的地址範圍,對接收到的請求信 息進行分解,使得分解後的各請求信息中攜帶的要訪問的存儲空間的LBA分 別歸屬於不同CPU管理的範圍;
第一歸屬單元12,用於根據分解後的各請求信息中攜帶的要訪問的存儲 空間的LBA,確定所述分解後的各請求信息歸屬的CPU。
本發明實施例中的第一分解單元11可根據各CPU管理的地址範圍,將請 求信息分解,使得具有較長地址長度的請求信息分解後可歸屬到不同的CPU 上,多個CPU可同時對一個請求信息進行處理,提高了系統中各CPU的並發
處理能力,提高了多處理器存儲系統的性能。
圖6為本發明實施例三所提供的請求信息處理裝置中歸屬確定模塊的結 構示意圖。在上述實施例一技術方案的基礎上,本實施例中的歸屬確定模塊1 可包括第二分解單元13和第二歸屬單元14,其中,
第二分解單元13,用於根據接收到的請求信息中攜帶的要訪問的存儲空 間的LBA的起始地址,將所述請求信息中攜帶的所述LBA按預設地址長度進
14行分解;
第二歸屬單元14,用於根據分解後的請求信息中攜帶的要訪問的存儲空 間的LBA,計算分解後的各請求信息中攜帶的所述LBA的hash索引值,確定 分解後的各請求信息歸屬的CPU。
本實施例中,第二分解單元13可對接收到的請求信息進行分解成具有一 定LUN空間的請求信息,第二歸屬單元14可通過hash函數將分解後的各請 求信息歸屬到不同的CPU,使得每個CPU只處理歸屬於自己管理的cache中存 儲的數據,訪問cache時不需要進行鎖操作,提高了 CPU訪問cache的效率; 同時,通過hash函數將請求信息分散到不同的CPU分別進行處理,每個CPU 上的管理空間是經過hash函數計算得到離散LUN空間的集合,有效提高了整 個存儲系統的分發處理能力,提高了存儲系統的讀寫性能。
圖7為本發明實施例所提供的多處理器存儲系統的結構示意圖。該系統 包括至少兩個中央處理器和與各中央處理器連接的緩衝存儲器單元和存儲單 元,以及與各中央處理器連"l姿的cache管理裝置10,所述cache管理裝置10 包括歸屬確定模塊1和請求發送模塊2 ,其中,
歸屬確定模塊1,用於根據接收的請求信息中攜帶的要訪問的存儲空間的 LBA,確定所述請求信息歸屬的CPU;
請求發送模塊2,用於將所述請求信息發送至所述請求信息歸屬的CPU, 由所述CPU對所述請求信息進行處理。
具體地,該系統可包括多個埠,如port l-port n,其中n為大於1 的自然數,分別用於接收伺服器下發的請求信息,當port n收到新的請求信 息後,可將該請求信息通過歸屬確定模塊1確定其歸屬的CPU,並由請求發送 模塊2將該請求信息發送至相應的CPU進行處理,各CPU可從自己的接收隊 列中獲取相應的請求信息,並對請求信息相應的處理。本發明實施例中,當 CPU從自己的接收隊列中獲取請求信息時,可根據請求信息中攜帶的要訪問的 存儲空間的LBA以及L麗ID,通過緩衝存儲器單元(cache )來實現對存儲單元的訪問,完成相應的請求信息的處理,本發明實施例中,CPU對請求信息的
處理過程與現有技術相同,在此不再贅述。
如圖5所示,本發明實施例中的歸屬確定模塊1可為包括第一分解單元 11和第一歸屬單元12的模塊,其中,
第 一分解單元11,用於根據各CPU管理的地址範圍,對接收到的請求信 息進行分解,使得分解後的各請求信息要訪問的存儲空間的LBA分別歸屬於 不同CPU管理的範圍;
第一歸屬單元12,用於根據分解後的各請求信息中攜帶的要訪問的存儲 空間的LBA,確定所述分解後的各請求信息歸屬的CPU 。
本發明實施例中的第一分解單元11可根據各CPU管理的地址範圍,將請 求信息分解,使得具有較長地址長度的請求信息分解後可歸屬到不同的CPU 上,多個CPU可同時對一個請求信息進行處理,提高了系統中各CPU的並發 處理能力,提高了多處理器存儲系統的性能。
此外,如圖6所示,本發明實施例中的歸屬確定模塊1也可為包括第二 分解單元13和第二歸屬單元14的模塊,用於通過hash函數對接收到的請求 信息進行離散處理,並確定歸屬的CPU,其中,
第二分解單元13,用於根據接收到的請求信息中攜帶的要訪問的存儲空 間的LBA的起始地址,將所述請求信息中攜帶的所述LBA按預設地址長度進 行分解;
第二歸屬單元14,用於根據分解後的請求信息中攜帶的要訪問的存儲空 間的LBA,計算分解後的各請求信息中攜帶的所述LBA的hash索引值,從而 確定分解後的各請求信息歸屬的CPU。
本發明實施例中,第二分解單元13可對接收到的請求信息進行分解成具 有一定LUN空間的請求信息,第二歸屬單元14可通過hash函數將分解後的 各請求信息歸屬到不同的CPU,〗吏得每個CPU只處理歸屬於自己管理的cache 中存儲的數據,訪問cache時不需要進行鎖操作,提高了 CPU訪問cache的
16效率;同時,通過hash函數將請求信息分散到不同的CPU分別進行處理,每 個CPU上的管理空間是經過hash函數計算得到離散LUN空間的集合,有效提 高了整個存儲系統的分發處理能力,提高了存儲系統的讀寫性能。
觀J^貫^w又個八貝可。 程,是可以通過電腦程式來指令相關的硬體來完成,所述的程序可存儲 於計算機可讀取存儲介質中,該程序在執行時,可包括如上述各方法的實 施例的流程。其中,所述的存儲介質可為磁碟、光碟、只讀存儲記憶體 (Read-Only Memory, ROM)或隨機存儲記憶體(Random Access Memory, RAM)等。
最後應說明的是以上實施例僅用以說明本發明的技術方案而非對其進 行限制,儘管參照較佳實施例對本發明進行了詳細的說明,本領域的普通技 術人員應當理解其依然可以對本發明的技術方案進行修改或者等同替換, 而這些修改或者等同替換亦不能使修改後的技術方案脫離本發明技術方案的 津青3申和範圍。
權利要求
1、一種請求信息的處理方法,其特徵在於,包括根據接收的請求信息中攜帶的要訪問的存儲空間的邏輯塊地址,確定所述請求信息歸屬的中央處理器;將所述請求信息發送至所述請求信息歸屬的中央處理器,由所述中央處理器對所述請求信息進行處理。
2、 根據權利要求1所述的請求信息的處理方法,其特徵在於,所述根據 接收的請求信息中攜帶的要訪問的存儲空間的邏輯塊地址,確定所述請求信 息歸屬的中央處理器包括根據各中央處理器管理的地址範圍,對接收到的請求信息進行分解,使 得分解後的各請求信息要訪問的存儲空間的邏輯塊地址分別歸屬於不同中央 處理器管理的範圍;根據分解後的各請求信息要訪問的存儲空間的邏輯塊地址,確定分解後 的各請求信息歸屬的中央處理器。
3、 根據權利要求1所述的請求信息的處理方法,其特徵在於,所述根據 接收的請求信息中攜帶的要訪問的存儲空間的邏輯塊地址,確定所述請求信 息歸屬的中央處理器包括根據接收到的請求信息中攜帶的要訪問的存儲空間的邏輯塊地址的起始 地址,將所述請求信息中攜帶的所述邏輯塊地址按預設地址長度進行分解;根據分解後的請求信息中攜帶的要訪問的存儲空間的邏輯塊地址,計算 分解後的各請求信息中攜帶的邏輯塊地址的哈希索引值,從而確定分解後的 各請求信息歸屬的中央處理器。
4、 根據權利要求1至3任一項所述的請求信息的處理方法,其特徵在於, 所述將所述請求信息發送至所述請求信息歸屬的中央處理器包括將所述分解後的各請求信息分別發送至各自歸屬的中央處理器。
5、 一種請求信息處理裝置,其特徵在於,包括歸屬確定模塊,用於根據接收的請求信息中攜帶的要訪問的存儲空間的 邏輯塊地址,確定所述請求信息歸屬的中央處理器;請求發送模塊,用於將所述請求信息發送至所述請求信息歸屬的中央處 理器,由所述中央處理器對所述請求信息進行處理。
6、 根據權利要求5所述的請求信息處理裝置,其特徵在於,所述歸屬確 定模塊包括第一分解單元,用於根據各中央處理器管理的地址範圍,對接收到的請求信息進行分解,使得分解後的各請求信息中攜帶的要訪問的存儲空間的邏 輯塊地址分別歸屬於不同中央處理器管理的範圍;第一歸屬單元,用於根據分解後的各請求信息中攜帶的要訪問的存儲空 間的邏輯塊地址,確定所述分解後的各請求信息歸屬的中央處理器。
7、 根據權利要求5所述的請求信息處理裝置,其特徵在於,所述歸屬確 定模塊包括第二分解單元,用於根據接收到的請求信息中攜帶的要訪問的存儲空間 的邏輯塊地址的起始地址,將所述請求信息中攜帶的所述邏輯塊地址按預設 地址長度進行分解;第二歸屬單元,用於根據分解後的請求信息中攜帶的要訪問的存儲空間 的邏輯塊地址,計算分解後的各請求信息中攜帶的所述邏輯塊地址的哈希索 引值,從而確定分解後的各請求信息歸屬的中央處理器。
8、 一種多處理器存儲系統,包括至少兩個中央處理器和與各中央處理器 連接的緩衝存儲器和存儲單元,其特徵在於,還包括與各中央處理器連接的 請求信息處理裝置,其中,所述請求信息處理裝置包括歸屬確定模塊,用於根據接收的請求信息中攜帶的要訪問的存儲空間的 邏輯塊地址,確定所述請求信息歸屬的中央處理器;請求發送模塊,用於將所述請求信息發送至所述請求信息歸屬的中央處理器,由所述中央處理器對所述請求信息進行處理。
9、 根據權利要求8所述的多處理器存儲系統,其特徵在於,所述歸屬確 定模塊包括第一分解單元,用於根據各中央處理器管理的地址範圍,對接收到的請求信息進行分解,使得分解後的各請求信息中攜帶的要訪問的存儲空間的邏 輯塊地址分別歸屬於不同中央處理器管理的範圍;第 一歸屬單元,用於根據分解後的各請求信息中攜帶的要訪問的存儲空 間的邏輯塊地址,確定所述分解後的各請求信息歸屬的中央處理器。
10、 根據權利要求8所述的多處理器存儲系統,其特徵在於,所述歸屬 確定模塊包括第二分解單元,用於根據接收到的請求信息中攜帶的要訪問的存儲空間 的邏輯塊地址的起始地址,將所述請求信息中攜帶的所述邏輯塊地址按預設 地址長度進行分解;第二歸屬單元,用於根據分解後的請求信息中攜帶的要訪問的存儲空間 的邏輯塊地址,計算分解後的各請求信息中攜帶的所述邏輯塊地址的哈希索 引值,從而確定分解後的各請求信息歸屬的中央處理器。
全文摘要
本發明公開了一種請求信息的處理方法、裝置以及多處理器存儲系統。該方法包括根據接收的請求信息中攜帶的要訪問的存儲空間的邏輯塊地址,確定所述請求信息歸屬的中央處理器;將所述請求信息發送至所述請求信息歸屬的中央處理器,由所述中央處理器對所述請求信息進行處理。此外,本發明實施例還提供了一種請求信息處理裝置,包括歸屬確定模塊和請求發送模塊。本發明實施例還提供了一種多處理器存儲系統。本發明實施例通過接收到的請求信息歸屬到相應的CPU進行處理,使得每個CPU只處理歸屬於自己管理的請求信息,CPU訪問cache時不需要進行鎖操作,有效保證了CPU訪問cache的有效性和可靠性。
文檔編號G06F15/16GK101630303SQ200910091100
公開日2010年1月20日 申請日期2009年8月24日 優先權日2009年8月24日
發明者昕 劉 申請人:成都市華為賽門鐵克科技有限公司

同类文章

一種新型多功能組合攝影箱的製作方法

一種新型多功能組合攝影箱的製作方法【專利摘要】本實用新型公開了一種新型多功能組合攝影箱,包括敞開式箱體和前攝影蓋,在箱體頂部設有移動式光源盒,在箱體底部設有LED脫影板,LED脫影板放置在底板上;移動式光源盒包括上蓋,上蓋內設有光源,上蓋部設有磨沙透光片,磨沙透光片將光源封閉在上蓋內;所述LED脫影

壓縮模式圖樣重疊檢測方法與裝置與流程

本發明涉及通信領域,特別涉及一種壓縮模式圖樣重疊檢測方法與裝置。背景技術:在寬帶碼分多址(WCDMA,WidebandCodeDivisionMultipleAccess)系統頻分復用(FDD,FrequencyDivisionDuplex)模式下,為了進行異頻硬切換、FDD到時分復用(TDD,Ti

個性化檯曆的製作方法

專利名稱::個性化檯曆的製作方法技術領域::本實用新型涉及一種檯曆,尤其涉及一種既顯示月曆、又能插入照片的個性化檯曆,屬於生活文化藝術用品領域。背景技術::公知的立式檯曆每頁皆由月曆和畫面兩部分構成,這兩部分都是事先印刷好,固定而不能更換的。畫面或為風景,或為模特、明星。功能單一局限性較大。特別是畫

一種實現縮放的視頻解碼方法

專利名稱:一種實現縮放的視頻解碼方法技術領域:本發明涉及視頻信號處理領域,特別是一種實現縮放的視頻解碼方法。背景技術: Mpeg標準是由運動圖像專家組(Moving Picture Expert Group,MPEG)開發的用於視頻和音頻壓縮的一系列演進的標準。按照Mpeg標準,視頻圖像壓縮編碼後包

基於加熱模壓的纖維增強PBT複合材料成型工藝的製作方法

本發明涉及一種基於加熱模壓的纖維增強pbt複合材料成型工藝。背景技術:熱塑性複合材料與傳統熱固性複合材料相比其具有較好的韌性和抗衝擊性能,此外其還具有可回收利用等優點。熱塑性塑料在液態時流動能力差,使得其與纖維結合浸潤困難。環狀對苯二甲酸丁二醇酯(cbt)是一種環狀預聚物,該材料力學性能差不適合做纖

一種pe滾塑儲槽的製作方法

專利名稱:一種pe滾塑儲槽的製作方法技術領域:一種PE滾塑儲槽一、 技術領域 本實用新型涉及一種PE滾塑儲槽,主要用於化工、染料、醫藥、農藥、冶金、稀土、機械、電子、電力、環保、紡織、釀造、釀造、食品、給水、排水等行業儲存液體使用。二、 背景技術 目前,化工液體耐腐蝕貯運設備,普遍使用傳統的玻璃鋼容

釘的製作方法

專利名稱:釘的製作方法技術領域:本實用新型涉及一種釘,尤其涉及一種可提供方便拔除的鐵(鋼)釘。背景技術:考慮到廢木材回收後再加工利用作業的方便性與安全性,根據環保規定,廢木材的回收是必須將釘於廢木材上的鐵(鋼)釘拔除。如圖1、圖2所示,目前用以釘入木材的鐵(鋼)釘10主要是在一釘體11的一端形成一尖

直流氧噴裝置的製作方法

專利名稱:直流氧噴裝置的製作方法技術領域:本實用新型涉及ー種醫療器械,具體地說是ー種直流氧噴裝置。背景技術:臨床上的放療過程極易造成患者的局部皮膚損傷和炎症,被稱為「放射性皮炎」。目前對於放射性皮炎的主要治療措施是塗抹藥膏,而放射性皮炎患者多伴有局部疼痛,對於止痛,多是通過ロ服或靜脈注射進行止痛治療

新型熱網閥門操作手輪的製作方法

專利名稱:新型熱網閥門操作手輪的製作方法技術領域:新型熱網閥門操作手輪技術領域:本實用新型涉及一種新型熱網閥門操作手輪,屬於機械領域。背景技術::閥門作為流體控制裝置應用廣泛,手輪傳動的閥門使用比例佔90%以上。國家標準中提及手輪所起作用為傳動功能,不作為閥門的運輸、起吊裝置,不承受軸向力。現有閥門

用來自動讀取管狀容器所載識別碼的裝置的製作方法

專利名稱:用來自動讀取管狀容器所載識別碼的裝置的製作方法背景技術:1-本發明所屬領域本發明涉及一種用來自動讀取管狀容器所載識別碼的裝置,其中的管狀容器被放在循環於配送鏈上的文檔匣或託架裝置中。本發明特別適用於,然而並非僅僅專用於,對引入自動分析系統的血液樣本試管之類的自動識別。本發明還涉及專為實現讀