一種基於神經網絡的軌道交通實時客流預測方法與流程
2023-12-05 12:36:51 3
本發明涉及軌道客流預測領域,特別涉及到一種基於神經網絡的軌道交通實時客流預測方法。
背景技術:
:隨著城市化進程的快速發展,城市人口的出行需求與城市交通運載量之間的衝突愈發突出。城市軌道交通以其特有的高速、高容量以及環保等優勢,從多種交通方式中脫穎而出,成為解決交通擁堵的主要交通工具。各城市紛紛投入建設,令城市軌道交通從單線運營向線網運營轉型,其規模和複雜性提升的同時,也對軌道交通的網絡化管理和發展提出挑戰。而快速準確的客流預測既是科學制定行車計劃的基礎,也是實時調整運營計劃的重要依據,它有助於交通運營管理更全面優質的發揮其作用。支持向量機,即svm,作為一個凸二次規劃問題,可保證得到的極值解就是全局最優解。這些特性使svm足夠成為優秀的基於數據的機器學習方法。svm在解決對於小樣本與高維模式識別等問題中具有突出表現,且能將應用推廣至函數擬合等相關機器學習研究中。與傳統的機器學習算法不同,svm將原始樣本空間映射到高維特徵空間,並在新空間內求得最優線性分類面。這種映射轉換即非線性轉換是採用適當內積函數實現。svm成功解決了局部極小值問題與高維問題。通過定義不同的內積函數即可實現貝葉斯分類器、徑向基函數法、多層感知器網絡等多種學習算法。svm採用大間隔因子來控制機器學習的訓練過程,令它僅選擇分類間隔最大的分類超平面。svm算法具備較為完整的理論基礎,在某些領域的應用中展現了非常好的泛化性能,鑑於此,它在解決分類、回歸以及密度函數估測中均獲得不俗效果,且成功的應用到了回歸估計、模式識別等方面。如文本分類、語音識別等。svm最早是為分類問題而設計並得到廣泛應用。近年來,它在回歸問題方面也表現出非常好的性能。現有的軌道交通實時客流預測方法包括roosj提出一個動態貝葉斯網絡方法用於預測巴黎鐵路網絡中的短期客流,該方法對系統故障造成的數據不全情況有較好的處理效果。現有的軌道交通實時客流預測方法存在預測準確率低,計算量大的技術問題。因此,提供一種預測準確率高、計算量小的軌道交通實時客流預測方法就很有必要。技術實現要素:本發明所要解決的技術問題是現有技術中存在的準確率低的技術問題。提供一種新的基於神經網絡的軌道交通實時客流預測方法,該基於神經網絡的軌道交通實時客流預測方法具有準確率高、計算量小的特點。為解決上述技術問題,採用的技術方案如下:一種基於神經網絡的軌道交通實時客流預測方法,所述方法包括:(1)從自動售檢票系統採集n個歷史數據作為原始樣本,對原始樣本進行預處理得到預處理樣本;(2)依據步驟(1)中預處理樣本,依據非線性自回歸神經網絡,建立關於時間序列的短時客流預測模型p(t),所述非線性自回歸神經網絡包括輸入層、輸入滯時、隱藏層、輸出層及輸出滯時:(3)根據步驟(2)中短時客流預測模型p(t),以及訓練算法,進行實時客流預測,所述實時客流預測包括短時客流預測、高峰預測及客流分布站點預測;其中,t表示時間,p表示客流量,延時階數n為正整數,w表示權重矩陣。本發明的工作原理:將原始樣本中任意時間序列向量和它所對應的客流向量作為輸入,對未來短期內某時間段內客流量進行預測,以及尖峰時段客流量預測。根據時空分布規律,為時滯非線性自回歸神經網絡模型增加了具有代表性的客流分布站點預測。時滯非線性自回歸神經網絡在處理時序的非線性數據上有更好表現,且能彌補支持向量機樣本的局限性問題。上述技術方案中,為優化,進一步地,所述步驟(2)中非線性自回歸神經網絡的第j個神經元輸出為nj,f為激勵函數:所述非線性自回歸神經網絡的激勵函數為lm函數、bfg函數、rp函數、scg函數及gdx函數中任意;其中,i表示輸入數據量,l表示隱藏層神經元數量,f表示隱藏層激活函數,wij表示第i個輸出時間延遲信號與隱藏層第j個神經元間的連接權值,aj表示第j個隱藏層神經元閾值。進一步地,所述隱藏層數量為1,隱藏層神經元數量l=20。進一步地,所述訓練算法為scg算法。進一步地,所述激勵函數為s型函數。進一步地,所述激勵函數為telloits函數。進一步地,所述激勵函數為tan-sigmoid函數。進一步地,所述數據預處理包括關鍵信息提取、數據整理及分鐘級出入客流量統計。進一步地,所述關鍵信息提取包括提取刷卡時間、站臺與交通卡類型三種參數作為關鍵信息。由於svm回歸方法在樣本量多時會產生計算量大、計算速度慢等不足。神經網絡可以彌補這些問題,在眾多神經網絡中存在善於處理時序性數據的算法。人工神經網絡是對生物神經網絡的一種極為簡單的抽象映射。它採用數學的方法演繹並模擬,並且能夠通過程序以及電路實現,是一種非線性的信息處理系統。人工神經網絡則是通過模擬人腦結構實現智能處理。人工神經元結構如圖1。輸入x=(x1,x2,…,xn)t:神經元的輸入端將引入其他人工神經元包含的信息,也能夠引入自身輸出信號、外部信息。權重w=(wij)n×n:權重能夠反映輸入對與神經元的影響程度,神經元之間的連接權重可以調節自某一神經元到另一神經元的信號強度,它對從某個神經元到另一個的作用量造成直接影響。連接函數wx:處理多個輸入量和對應權重並將結果傳輸給傳遞函數。連接函數一般為加權求和函數。傳遞函數f(wx):作用函數或激活函數,映射連接函數的結果為神經元輸出。輸出y=(y1,y2,…,ym)t:輸出是傳遞函數的結果,一個神經元僅有一個輸出。人工神經元根據拓撲結構銜接而成為人工神經網絡,具有以下優點:大規模並行計算與分布式存儲能力:在神經網絡中,整個神經網絡甚至單個神經元都具有信息的處理與存儲能力,計算過程的並行性對信息的高速處理能力具有決定性作用。魯棒性和容錯性:信息的分布式存儲與集體協作計算導致每一個信息處理單元在含有對集體的貢獻以外不能確定整個網絡狀態,這令神經網絡的局部故障對整體網絡輸出而言並無影響。非局域性:多個神經元銜接成為一個完整的神經網絡,系統的整體行為由單個神經元特徵和神經元之間相互作用、相互連接共同決定。非線性映射能力:神經網絡中的各個神經元之間的映射特徵屬於非線性,個別神經元之間採用了複雜的非線性連接。因此,人工神經網絡是大規模非線性的,且擁有極強的非線性處理能力。非凸性:特定的狀態函數在一定條件下決定了系統的演化方向。系統的能量函數具有多個極值,因此具備多個較為穩定的平衡狀態,使得系統演化具備多樣性。自組織、自適應和自學習能力:人工神經網絡可以處理各種變化的信息,與此同時,非線性動力系統也在不斷更新變化,能夠經過對信息數據的有監督學習與無監督學習,實現對複雜函數的映射以適應變化的環境。時間序列為按照時間排序的數字序列。分析過程是將統計觀測到的時間序列數據作為樣本,建立模型用以預測未來事件的發生。基本原理主要包括兩點:一,承認事件發展的延續性;二,考慮事件發生的隨機性。對於時間序列的預測主要可以反映以周期性變化、趨勢變化、隨機性變化為主的三種變化規律。短時客流數據則具備這種變化規律,對於短時客流的預測,目的是幫助軌道交通運營安全運營,提高服務效率以及服務質量。準確的預測客流趨勢,則必須通過建立高精度的預測模型實現。本發明通過採用擅長處理時序性數據的非線性自回歸神經網絡建立預測模型實現客流趨勢預測。本發明的有益效果:效果一,提高了預測準確性;效果二,降低了計算複雜度;效果三,對數據進行預處理,減小了預測的多樣性、不確定性和複雜性。附圖說明下面結合附圖和實施例對本發明進一步說明。圖1,人工神經元結構示意圖。圖2,數據預處理流程示意圖圖3,神經網絡結構示意圖。圖4,非線性自回歸神經網絡的網絡結構圖圖5,0321號站臺進站預測非線性自回歸神經網絡模型示意圖。圖6,0321號站臺出站預測非線性自回歸神經網絡模型示意圖。圖7,0212號站臺進站預測非線性自回歸神經網絡模型示意圖。圖8,0212號站臺出站預測非線性自回歸神經網絡模型示意圖。圖9,0315號站臺進站預測非線性自回歸神經網絡模型示意圖。圖10,0315號站臺出站預測非線性自回歸神經網絡模型示意圖。圖11,0613號站臺的早高峰預測圖。圖12,0210號站臺的早高峰預測圖。圖13,0613號站臺的晚高峰預測圖。圖14,0210號站臺的晚高峰預測圖。圖15,0104號站點進站示意圖。圖16,0104號站點出站示意圖。圖17,0114號站點代表進站示意圖。圖18,0114號站點代表出站示意圖。圖19,誤差自相關示意圖。圖20,網絡訓練效果誤差圖。圖21,非線性自回歸神經網絡客流預測模型有效性示意圖。具體實施方式為了使本發明的目的、技術方案及優點更加清楚明白,以下結合實施例,對本發明進行進一步詳細說明。應當理解,此處所描述的具體實施例僅僅用以解釋本發明,並不用於限定本發明。實施例1本實施例提供一種基於神經網絡的軌道交通實時客流預測方法,所述方法包括:(1)從自動售檢票系統採集n個歷史數據作為原始樣本,對原始樣本進行預處理得到預處理樣本;(2)依據步驟(1)中預處理樣本,依據非線性自回歸神經網絡,建立關於時間序列的短時客流預測模型p(t),所述非線性自回歸神經網絡包括輸入層、輸入滯時、隱藏層、輸出層及輸出滯時:(3)根據步驟(2)中短時客流預測模型p(t),以及訓練算法,進行實時客流預測,所述實時客流預測包括短時客流預測、高峰預測及客流分布站點預測;其中,t表示時間,p表示客流量,延時階數n為正整數,w表示權重矩陣。具體地,所述步驟(2)中非線性自回歸神經網絡的第j個神經元輸出為nj,f為激勵函數:所述非線性自回歸神經網絡的激勵函數為lm函數、bfg函數、rp函數、scg函數及gdx函數中任意;其中,i表示輸入數據量,l表示隱藏層神經元數量,f表示隱藏層激活函數,wij表示第i個輸出時間延遲信號與隱藏層第j個神經元間的連接權值,aj表示第j個隱藏層神經元閾值。由於原始樣本是從現實世界採集到的大量數據,而現實生產與實際生活以及科學研究之間存在多樣性、不確定性和複雜性,導致採集到的原始數據較為散亂,符合預測算法進行知識獲取研究的程度低。人工神經元結構如圖1。輸入x=(x1,x2,…,xn)t:神經元的輸入端將引入其他人工神經元包含的信息,也能夠引入自身輸出信號、外部信息。權重w=(wij)n×n:權重能夠反映輸入對與神經元的影響程度,神經元之間的連接權重可以調節自某一神經元到另一神經元的信號強度,它對從某個神經元到另一個的作用量造成直接影響。連接函數wx:處理多個輸入量和對應權重並將結果傳輸給傳遞函數。連接函數一般為加權求和函數。傳遞函數f(wx):作用函數或激活函數,映射連接函數的結果為神經元輸出。輸出y=(y1,y2,…,ym)t:輸出是傳遞函數的結果,一個神經元僅有一個輸出。人工神經元根據拓撲結構銜接而成為人工神經網絡,具有以下優點:大規模並行計算與分布式存儲能力:在神經網絡中,整個神經網絡甚至單個神經元都具有信息的處理與存儲能力,計算過程的並行性對信息的高速處理能力具有決定性作用。魯棒性和容錯性:信息的分布式存儲與集體協作計算導致每一個信息處理單元在含有對集體的貢獻以外不能確定整個網絡狀態,這令神經網絡的局部故障對整體網絡輸出而言並無影響。非局域性:多個神經元銜接成為一個完整的神經網絡,系統的整體行為由單個神經元特徵和神經元之間相互作用、相互連接共同決定。非線性映射能力:神經網絡中的各個神經元之間的映射特徵屬於非線性,個別神經元之間採用了複雜的非線性連接。因此,人工神經網絡是大規模非線性的,且擁有極強的非線性處理能力。非凸性:特定的狀態函數在一定條件下決定了系統的演化方向。系統的能量函數具有多個極值,因此具備多個較為穩定的平衡狀態,使得系統演化具備多樣性。自組織、自適應和自學習能力:人工神經網絡可以處理各種變化的信息,與此同時,非線性動力系統也在不斷更新變化,能夠經過對信息數據的有監督學習與無監督學習,實現對複雜函數的映射以適應變化的環境。優選地,如圖2,所述預處理包括關鍵信息提取、數據整理及分鐘級出入客流量統計。具體地,本實施例中所述關鍵信息提取包括提取刷卡時間、站臺與交通卡類型三種參數作為關鍵信息。原始樣本從實際應用自動售檢票系統中獲取,由於數據量大,獲取的任意時刻乘客進出信息雜亂。因此,需要對龐大的數據集進行一個整合與關鍵信息提取。在關鍵信息的選擇上,本實施例在7種標籤中選取了更具研究價值的三種作為關鍵信息,他們包括刷卡時間、站臺與交通卡類型。本實施例在實驗過程中遍歷了所有實驗數據,整理了關鍵信息的所有內容。根據表5中的原始數據,整理結果為:表1為數據樣本關鍵詞時間列表,表2為數據樣本關鍵詞站臺列表,表3為數據樣本關鍵詞卡類號列表。表1站臺號站臺號站臺號站臺號01020201030106090103020203020610010402030303061101050204030406130106020503050614…………0120021503360623012102160337062501220217033806260123021803390628表2卡類號卡類型卡類號卡類型00宜居普通卡05宜居月票14宜居免費卡77宜居免費計數卡15宜居員工卡82公務票20愛心優惠卡88員工票03宜居學生卡89單程紀念票44軌警執勤卡94軌道定次票48軌道服務卡98單程票表3表1所示證實數據採集時間範圍為2014年1月1日到2014年1月31日。從表2可以看出,統計數據的站臺,前兩位表示軌道交通線路名,後兩位表示站臺號且從頭至尾一次遞增。其中,缺失站臺號表示該線路上該站臺還未開通。交通卡類型統計在表3中,號碼對應的卡類型名也相應展示出來。由於原始數據形式雜亂,不利於進行實驗預測。因此,將數據按一定規律整理有利於後續實驗的進行。計劃對不同站點的出行客流量進行預測,鑑於此,將前一步驟整理的站點列表中的站點號作為分類標籤,對軌道交通線網在一個月內的出入記錄進行分類。每一個站點文件包含了該站點在2014年1月份的客流出入記錄。原始數據多,而每條信息僅記錄了某乘客某時刻的出入行狀態。若要建立預測模型進行客流量預測,先對原始數據進行統計能夠減少計算量。因此,遍歷每個整理後的站臺數據文件。優選地,每5分鐘統計一次該站點的入站人數和出站人數,統計結果如表4。統計開始時間統計截止時間入站人數出站人數20140112-07000020140112-070500296320140112-07050020140112-071000186720140112-07100020140112-071500232520140112-07150020140112-072000188620140112-07200020140112-0725002114320140112-07250020140112-0730002411220140112-07300020140112-073500253620140112-07350020140112-0740004314220140112-07400020140112-07450030135表4表5本實施例中,非線性自回歸模型是一種以自身作為回歸變量,利用某段時間內隨機變量的線性組合來描述該段時間後某時刻隨機變量的非線性回歸模型。對於時間序列{xt},t=1,2,…,n,非線性自回歸模型模型為:x(t)+φ1x(t-1)+φ2x(t-2)+…+φnx(t-n)+e(t)其中,e(t)是x(t)的擾動項,且均值為0,方差為常數的白噪聲序列。該模型即利用前n個時間序列上的值,預測第n+1個時間序列上的值。非線性自回歸神經網絡則是基於非線性自回歸神經網絡模型發展而來,它和全回歸神經網絡能夠相互轉化,因此相比全回歸神經網絡性能更好,這促使非線性自回歸神經網絡作為非線性的動態神經網絡被廣泛應用。其模型:y(t)=f(y(t-1),y(t-2),…,y(t-n))第n+1個y(t)的值取決於前n個y(t)值。非線性自回歸神經網絡包括輸入層、輸入滯時、隱藏層、輸出層及輸出滯時,模型使用前確定隱藏層神經元數量、輸入滯時和輸出滯時,神經網絡結構如圖3。圖3中,y(t)表示神經網絡的輸入或輸出;10表示延時的階數;w表示連結的權值;b則表示閾值。圖4為非線性自回歸神經網絡的網絡結構圖,輸出信號的時間延遲作為該網絡中時間延遲反饋,是基於自身數據進行回歸,因此將輸出的時間延遲信號當作網絡的輸出,經過隱藏層與輸出層計算求得網絡輸出,並循環該過程。其中,網絡輸入信號使用xi表示,隱藏層中,根據連接權值wij,和閾值ai,以及激勵函數f計算神經元的輸出nj:其中,i表示輸入數據量,l表示隱藏層神經元數量,f表示隱藏層激活函數,wij表示第i個輸出時間延遲信號與隱藏層第j個神經元間存在的連接權值,aj表示第j個隱藏層神經元閾值。輸出層中網絡的輸出o根據隱藏層輸出hj計算:wj表示隱藏層中第j個神經元和輸出層神經元間連接的權值,b表示輸出層神經元閾值。然後,建立關於時間序列的短時客流預測模型非線性自回歸神經網絡(n):p(t)=f(p(t-1),p(t-2),…,p(t-n),w)=f[p(t),w]其中,t表示時間,p表示客流量,延時階數n為正整數,w表示權重矩陣。模型中,下一個p(t)的值取由前n個p(t)值共同決定。為驗證非線性自回歸神經網絡預測模型的有效性,以0321號站臺2014年1月6日至1月12日一周內8點到10點的數據進行訓練,預測2014年1月13日該時段的客流,有效性實現效果如圖21所示,該模型表現較好,可以用於客流預測。虛線空心點為預測值,實線實心點為訓練值。在神經網絡中,隱藏層的作用相對抽象,源於其主要工作在於提取輸入數據中的特徵,以至於適當的增加隱藏層數量能夠增強網絡的數據處理能力,但不是其結構越複雜,性能越好。因為隱藏層數量的增加在提高其預測性能的同時,也是將神經網絡複雜化的過程,它將大大增加了它的計算量,增加了神經網絡的訓練時間,甚至引起反傳誤差。在此基礎上,依靠增加隱藏層節點數來降低誤差。如此選擇的主要原因有:隱藏層個數極大程度影響了誤差曲面梯度的穩定性,全部的梯度下降優化算法對參數變化存在依賴性,層數過量會影響梯度的穩定性,因此,過多的隱藏層將會使網絡處在非穩定的狀態之中導致訓練效果的不佳;多餘的隱藏層將會置神經網絡於一種極端狀態,增加其陷入局部極小點的概率,從而對神經網絡的性能造成影響;隱藏層越多,神經網絡在訓練中的訓練量也越多,訓練時間也越長。因此,作為優選,所述隱藏層數量為1。通過調整該層神經元數量對網絡進行優化。設定隱藏層數為1,隱藏層神經元為20,時延參數將根據實驗的樣本數量進行調整。訓練算法的選擇通常要考慮多方面因素,如樣本數量、網絡複雜性。其性能評價的參考指標主要包括算法的收斂速度以及內存消耗。本實施例以觀音橋站點的數據作為樣本,分別使用lm、bfg、rp、scg和gdx五種常用的激勵函數對2014年1月1日到1月10日的數據進行訓練,預測1月11日的客流量趨勢。結合相關資料對比結果:當神經網絡權值小於100個的時候,lm算法是最優選擇。相比其他算法速度,lm算法能夠提速3~4倍,並且,當神經網絡的期望誤差比較小的時候,lm算法能夠表現出很好的訓練效果。但它在使用時,在內存消耗上相比其它算法多出很多,以至於需要以訓練時間為代價提高精度。bfg算法與lm算法存在相似性,但消耗的內存比lm算法少。而它的缺陷在於當神經網絡權重值增加時,成幾何倍數增加它的計算量。rp算法則是模式識別中建模速度最快的算法,但它在函數擬合上略有不足。尤其當網絡的期望誤差比較小時,rp算法效果通常表現不好,但它所消耗的內存較小。gdx算法在訓練速度上最慢,其內存消耗與rp算法類似,針對個別特殊問題有較好的表現,如不需要收斂過快的神經網絡訓練等。scg算法則在多方面都表現不俗,特別是大型的有大量權重的網絡訓練中。在函數擬合中,scg算法擁有幾乎與lm算法媲美的速度,而模式識別中又與rp算法速度相似,在神經網絡期望誤差較為小的訓練中,scg算法通常比rp算法更為穩定。值得一提的是,scg算法的內存消耗也較為適中。因此,在全面考慮了收斂速度以及內存消耗兩方面因素下,優選地,所述訓練算法為scg算法。神經網絡中,激勵函數的選擇對網絡的性能結構以及計算複雜性都造成直接的影響。它主要分為全局核函數和局部核函數。全局逼近的神經網絡,其激勵函數也選擇全局函數較為合適。在激勵函數的選擇中,優先考慮便於計算函數值與一階導數值的函數。優選地,所述激勵函數為s型函數。在本實施例s型函數進行包括log-sigmoid函數、tan-sigmoid函數以及elloits函數,三種s型函數的一階導數如下:三種激勵函數的輸出範圍,log-sigmoid函數的導數值域令誤差修正信號只能在0到1/4之間。而tan-sigmoid和elloits函數輸出範圍在-1到1,修正信號取值範圍在0到1之間。當訓練算法的步長一定時,激勵函數的一階導數可以決定權值更新的頻率。三種函數的一階導數形狀相似,僅在0點周圍的幅值有差異,介於神經網絡初始權值往往取較小的隨機數,因此,導數的幅值差異則會對權值的收斂速度造成影響。因此,tan-sigmoid函數或是elloits函數作為激勵函數時,網絡收斂更快。優選地,所述激勵函數為telloits函數。優選地,所述激勵函數為tan-sigmoid函數。本實施例的預測結果為:短時客流預測如圖5-圖10:實驗選擇0321號站臺、0212號站臺以及0315號站臺作為預測對象,對各站點2014年1月6日到1月21日中每天15時至21時的進站/出站數據進行訓練,並對2014年1月22日相同時段進站/出站客流量進行預測,訓練數據每15分鐘統計一次。圖5為0321號站臺進站預測非線性自回歸神經網絡模型,圖6為0321號站臺出站預測非線性自回歸神經網絡模型,圖7為0212號站臺進站預測非線性自回歸神經網絡模型,圖8為0212號站臺出站預測非線性自回歸神經網絡模型,圖9為0315號站臺進站預測非線性自回歸神經網絡模型,圖10為0315號站臺出站預測非線性自回歸神經網絡模型。其中,虛線為預測值,實線為訓練值。高峰預測,包括早高峰預測及晚高峰預測:早高峰預測:選擇0613號站臺和0210號站臺作為預測對象,對該站點2014年1月6日到1月21日中每天6時30分至9時30分的進站數據進行訓練,並對2014年22日相同時段進站客流量進行預測,訓練數據每15分鐘統計一次。其實驗結果如圖11及圖12,圖11是0613號站臺的預測圖,圖12是0210號站臺的早高峰預測圖。其中,橫坐標是該時間段內每20分鐘一個刻度。其中虛線為預測值,實線為訓練值。晚高峰預測:選擇0613號站臺和0210號站臺作為預測對象,對該站點2014年1月6日到1月21日中每天17時至20時的進站數據進行訓練,並對2014年22日相同時段進站客流量進行預測,訓練數據每15分鐘統計一次。其實驗結果如圖13及圖14,圖13是0613號站臺的晚高峰預測圖,圖14是0210號站臺的晚高峰預測圖。其中,橫坐標是該時間段內每20分鐘一個刻度。其中虛線為預測值,實線為訓練值。代表性的客流分布站點預測:以通學、通勤為主站點:預測了0104號站點進站客流量,該次以2014年1月6日到1月19日每天營業時間內的客流數據作為訓練集,預測1月20日到1月26日時段內每日營業時間內的客流量,每60分鐘統計一次進站/出站客流。預測效果如圖15及圖16所示,圖15圖代表0104號站點進站,圖16圖代表0104號站點出站。橫坐標是以每60分鐘進行客流量統計的時間序列,縱坐標表示進站人流量。該站點工作日進站或出站人數明顯多於雙休日,符合該類型客流分布特點。而非線性自回歸神經網絡客流預測模型的預測效果也較為精準。其中虛線為預測值,實線為訓練值。商圈景點周圍站點:在該類站點中,選取0114號站點進出站數據作為預測對象。以2014年1月6日到1月19日每天營業時間內的客流數據作為訓練集,預測1月20日到1月26日時段內每日營業時間內的客流量,每60分鐘統計一次進站/出站客流。其進站預測效果如圖17及圖18所示,圖17圖0114號站點代表進站,圖18圖0114號站點代表出站。0114號站點作為商圈周末的進出站人數明顯比周一至周五要多,符合其客流分布特徵。而非線性自回歸神經網絡客流預測模型在第三周的客流量預測上效果突出。其中虛線為預測值,實線為訓練值。本實施例引入誤差自相關性進行評估。誤差自相關函數用於描述預測誤差與時間之間的相關性。對於一個準確度高的預測模型,其自相關函數值一定只能擁有一個非零值,並且該值發生於零階處。這便表示預測的誤差與誤差之間完全不相關。若是預測誤差間相關性較為顯著,則可通過延長滯時對預測效果進行改進。除去零階外,其餘所有階數的相關性皆應在95%置信區間之內,即表示模型足夠合格。若是想要精確的預測結果,則需要對初始權值和閾值進行修改並再次訓練神經網絡。本實施例的模型的誤差自相關如圖18所示。該神經網絡的誤差自相關性是控制在置信區間中,並無階數超出置信區間範圍,該神經網絡符合精度要求。圖19中,縱坐標表示均方誤差(mse),通常採用它評價數據的變化幅度,該網絡在訓練了48次之後驗證集誤差達最小,其中,第42次效果最佳。圖20為網絡訓練效果誤差圖,誤差整體保持在[-200,200]內,訓練效果較好。本實施例建立的非線性自回歸神經網絡成功完成建模任務,準確度高、誤差小。儘管上面對本發明說明性的具體實施方式進行了描述,以便於本
技術領域:
的技術人員能夠理解本發明,但是本發明不僅限於具體實施方式的範圍,對本
技術領域:
的普通技術人員而言,只要各種變化只要在所附的權利要求限定和確定的本發明精神和範圍內,一切利用本發明構思的發明創造均在保護之列。當前第1頁12