3D多目標(biāo)跟蹤算法是智能車輛感知算法的重要組成部分,現(xiàn)有跟蹤算法多與檢測算法耦合以提高精度,導(dǎo)致算法實時性不足。針對此問題,本文中提出一種基于激光雷達(dá)的3D實時車輛跟蹤算法。首先,對于激光雷達(dá)檢測結(jié)果雜波較少的工況,提出結(jié)構(gòu)精簡的雙波門GNN關(guān)聯(lián)算法,有效提升其關(guān)聯(lián)速度及精度;其次,優(yōu)化關(guān)聯(lián)向量與關(guān)聯(lián)距離,既保證了算法的普適性,又提升其跟蹤精度;最后,針對3D目標(biāo)運動情況使用3D IMM?KF算法解決了3D機(jī)動目標(biāo)的跟蹤問題?;诠_數(shù)據(jù)集KITTI,本文算法在獲得266.1 FPS跟蹤速度的前提下可實現(xiàn)81.55%的MOTA精度;基于自研無人車平臺進(jìn)行面對遮擋工況的驗證,結(jié)果表明本算法具有良好的目標(biāo)跟蹤及關(guān)聯(lián)性能。
隨著智能汽車的不斷發(fā)展,其對周圍環(huán)境的感知需求日益增加。在環(huán)境感知算法中,多目標(biāo)跟蹤算法是重要的組成部分之一,其為智能汽車的軌跡規(guī)劃與決策提供了必要的環(huán)境信息。相較于智能車輛上的攝像頭與毫米波雷達(dá),激光雷達(dá)具有感知精度高、對光照和天氣適應(yīng)能力強(qiáng)等特點,受到學(xué)術(shù)界和工業(yè)界的廣泛關(guān)注。
跟蹤算法主要目的是將前后幀目標(biāo)檢測結(jié)果進(jìn)行匹配,進(jìn)而實現(xiàn)對目標(biāo)狀態(tài)的連續(xù)感知?,F(xiàn)有3D多目標(biāo)跟蹤算法由數(shù)據(jù)關(guān)聯(lián)算法結(jié)合濾波算法組成。數(shù)據(jù)關(guān)聯(lián)算法主要解決目標(biāo)間的關(guān)聯(lián)問題,濾波算法主要解決目標(biāo)的狀態(tài)估計和軌跡更新問題。常見的數(shù)據(jù)關(guān)聯(lián)算法有聯(lián)合概率數(shù)據(jù)互聯(lián)(joint probabilistic data association,JPDA)、多假設(shè)跟蹤(multiple hypothesis tracking,MHT)、全局最近鄰關(guān)聯(lián)(global nearest neighbor,GNN)等。常見的濾波算法有卡爾曼濾波(Kalman filter,KF)系列、粒子濾波(particle filter,PF)以及適應(yīng)目標(biāo)機(jī)動工況的交互多模型算法(interacting multiple model,IMM)等。
現(xiàn)有的3D多目標(biāo)跟蹤方法,例如文獻(xiàn)[8]~文獻(xiàn)[12]中基于檢測的跟蹤,將檢測算法與跟蹤算法耦合,整體精度較高。但由于跟蹤算法精度依賴于檢測算法的精度,將檢測算法與跟蹤算法耦合會掩蓋跟蹤算法本身的精度,無法確定是由于先進(jìn)的感知算法帶來的跟蹤性能提升還是由于跟蹤算法的改進(jìn)帶來的性能提升。同時這樣的耦合所帶來的性能提升是以整個系統(tǒng)的復(fù)雜性和計算成本為代價的,例如文獻(xiàn)[8]~文獻(xiàn)[13]中方法具有較好的性能精度,但其系統(tǒng)的整體復(fù)雜度較高,無法滿足高實時性的需求。
針對上述問題,本文中提出了一種基于激光雷達(dá)的3D實時車輛跟蹤方法。使用GNN算法作為數(shù)據(jù)關(guān)聯(lián)算法,并通過雙波門設(shè)計,提升了算法精度與速度。同時為消除檢測與跟蹤算法的耦合關(guān)系,采用目標(biāo)位置信息與目標(biāo)體積信息作為關(guān)聯(lián)向量,并使用馬氏距離作為關(guān)聯(lián)距離以提升關(guān)聯(lián)的準(zhǔn)確性。最后使用3DIMM?KF算法,保證對機(jī)動目標(biāo)的跟蹤,實現(xiàn)了一個魯棒性強(qiáng)、實時性好的跟蹤系統(tǒng)。
跟蹤系統(tǒng)設(shè)計
本文中提出的基于激光雷達(dá)的3D實時車輛跟蹤系統(tǒng),由3個部分組成:(1)使用雙波門GNN的前后幀目標(biāo)關(guān)聯(lián)模塊;(2)使用3DKF實現(xiàn)的IMM跟蹤濾波器;(3)結(jié)合歷史軌跡信息的跟蹤軌跡生成和消亡管理器。其整體系統(tǒng)流程如圖1所示。
圖1 跟蹤系統(tǒng)流程圖
檢測結(jié)果獲取
隨著智能車輛檢測算法的不斷發(fā)展,不斷涌現(xiàn)出性能優(yōu)異的檢測算法,例如文獻(xiàn)[14]~文獻(xiàn)[16]。本文中采用文獻(xiàn)[16]中所提出的檢測算法,未進(jìn)行任何改動。該檢測算法并不具有領(lǐng)先的性能,目前其精度在KITTI的基準(zhǔn)測試榜單中為75.64%,相較于主流檢測方法有5%以上的精度差距。采用該算法是因為其算法開源且傳播廣泛,能更加體現(xiàn)出所提跟蹤算法的綜合優(yōu)勢。
同時為保證跟蹤算法的通用性,本文中不使用除3D檢測框結(jié)果以外的信息。對于k時刻的檢測結(jié)果z(k),有z(k)=(x,y,z,l,w,h,θ),其中(x,y,z)為3D檢測框中心點的三維坐標(biāo),(l,w,h)為3D檢測框的長寬高,θ為3D檢測框朝向角。
雙波門GNN關(guān)聯(lián)算法
在常用的數(shù)據(jù)關(guān)聯(lián)算法中,GNN算法是一種不考慮干擾的關(guān)聯(lián)算法,直接將濾波算法預(yù)測結(jié)果與最相似的檢測目標(biāo)關(guān)聯(lián)。而JPDA與MHT綜合考慮了環(huán)境中的雜波干擾,與GNN算法相比,優(yōu)勢是關(guān)聯(lián)精準(zhǔn)更高,劣勢是速度較慢。
激光雷達(dá)原始點云數(shù)據(jù)量龐大,每幀多達(dá)數(shù)萬個檢測點,但經(jīng)過目標(biāo)檢測后,跟蹤算法的輸入僅有數(shù)十個檢測框。環(huán)境干擾對跟蹤算法的影響已降到較低水平,在這種情況下GNN算法結(jié)構(gòu)簡單、速度較快的優(yōu)勢便體現(xiàn)出來,因此本文中選擇GNN關(guān)聯(lián)算法作為基礎(chǔ)的關(guān)聯(lián)算法。
關(guān)聯(lián)向量與關(guān)聯(lián)距離
在GNN關(guān)聯(lián)算法中,如何綜合評價前后幀目標(biāo)間的相似度對關(guān)聯(lián)算法十分重要,文獻(xiàn)[11]~文獻(xiàn)[17]中使用的關(guān)聯(lián)向量不包含物體的3D信息,文獻(xiàn)[18]中使用的關(guān)聯(lián)向量除物體3D信息外還包含目標(biāo)點云的反射強(qiáng)度信息。要提升相似度計算的全面性和綜合性,需盡可能增多關(guān)聯(lián)向量中包含的特征信息,但為保證跟蹤算法的通用性,一些特殊的關(guān)聯(lián)信息應(yīng)該予以排除。由上述兩點考慮,本文中選擇(x,y,z,l,w,h)作為關(guān)聯(lián)向量。對于朝向角θ,其滿足上述兩點的要求,但是由于3D檢測對于物體的朝向信息容易發(fā)生混亂,實驗過程中發(fā)現(xiàn)關(guān)聯(lián)向量中加入朝向角θ,反而會導(dǎo)致跟蹤精度的下降,因此在關(guān)聯(lián)向量中去除朝向角θ。
對于關(guān)聯(lián)距離的計算方式,文獻(xiàn)[11]和文獻(xiàn)[12]中選用歐式距離進(jìn)行計算。歐氏距離計算方便,直接反映了兩個物體間的空間距離。然而歐式距離對關(guān)聯(lián)向量中的各個參數(shù)進(jìn)行等權(quán)重的計算,無法評判不同參數(shù)的不同重要性,因此本文中選用以協(xié)方差作為權(quán)重的馬氏距離進(jìn)行計算[19],從而能更好區(qū)分目標(biāo)間的相似度。
雙波門算法
如圖1所示,檢測結(jié)果在進(jìn)行關(guān)聯(lián)匹配前,需要進(jìn)行波門的驗證。波門是以預(yù)測狀態(tài)為中心的判定區(qū)域,只有落入波門內(nèi)的檢測,才會執(zhí)行后續(xù)關(guān)聯(lián)算 法。而GNN算法匹配邏輯簡單,波門設(shè)置方式對算法精度影響較大。以往算法只設(shè)置一道波門進(jìn)行濾波,導(dǎo)致對目標(biāo)距離信息的判定不夠全面,同時在單波門的情況下對所有目標(biāo)進(jìn)行馬氏距離的計算判定會耗費大量算力,導(dǎo)致算法實時性下降。針對以上問題,提出雙波門濾波方法,其結(jié)構(gòu)如圖2所示。首先使用歐式距離γe作為閾值,進(jìn)行歐式波門的篩選。此次篩選僅對空間坐標(biāo)(x,y,z)進(jìn)行篩選,將在空間距離上大于閾值的觀測值進(jìn)行去除。
隨后使用馬氏距離作為馬氏波門的閾值 γm,對滿足歐式波門的檢測結(jié)果再進(jìn)行馬氏距離的計算,濾除符合歐式波門但不符合馬氏波門的檢測。
式中:v′′(k)為 v(k)去除朝向角 θ 的新息;S′′(k)為 S(k)去除朝向角θ對應(yīng)維度后的協(xié)方差。
圖2 雙波門示意圖
通過進(jìn)行雙波門設(shè)置可有效濾除雜波干擾,提升算法精度。在算法速度上,通過歐式波門設(shè)置減少了較為費時的馬氏距離計算次數(shù),同時雙波門設(shè)置的兩次濾波減少了最終馬氏波門內(nèi)需進(jìn)行關(guān)聯(lián)匹配的目標(biāo)數(shù)量,減少了關(guān)聯(lián)匹配的計算次數(shù),從兩方面綜合提升了算法速度。
關(guān)聯(lián)匹配
在進(jìn)行雙波門濾波后,對滿足雙波門閾值的檢測進(jìn)行關(guān)聯(lián)匹配。若幾個較近的軌跡波門內(nèi)不存在相互干擾的檢測結(jié)果,則使用波門內(nèi)馬氏距離最近的檢測目標(biāo)作為匹配目標(biāo)。如存在如圖3所示的復(fù)雜情況,即預(yù)測位置P2其馬氏波門內(nèi)的檢測z2與預(yù)測位置P1的距離最近,檢測z3與預(yù)測位置P3距離最近的情況,則使用匈牙利算法作為匹配算法,將其代價矩陣定義為Cmn(m為已有軌跡數(shù),n為所有檢測數(shù)),其中元素為cij。
圖 3 關(guān)聯(lián)示意圖
IMM跟蹤器設(shè)計
現(xiàn)實中,實際車輛的運動如換道、超車等為機(jī)動狀態(tài),是幾個運動模型的復(fù)合,因此只采用單一運動模型的KF濾波器無法適應(yīng)該種情況。針對此類問題,使用可以應(yīng)對機(jī)動目標(biāo)情況的IMM算法,將多個濾波器結(jié)合起來進(jìn)行跟蹤。
運動模型的選定
IMM算法是通過考慮多個模型的交互轉(zhuǎn)換來實現(xiàn)機(jī)動目標(biāo)跟蹤,使用時需要選定多個模型。而常用模型如勻速模型(constant velocity,CV)、勻轉(zhuǎn)速模型(constant turn rate,CTR)、勻轉(zhuǎn)速與速度模型(constant turn rate and velocity,CTRV)等都是針對點 目標(biāo)的運動情況,其狀態(tài)向量中不包含3D信息,只針對2D信息進(jìn)行計算。由于沒有針對3D物體的跟蹤模型,本文中針對3D物體的運動特點提出使用3D CTR模型與3D CV模型的IMM?KF算法。
狀態(tài)交互
定義模型間轉(zhuǎn)移概率矩陣為P,其中元素pij為從第i個運動模型轉(zhuǎn)移到第j個模型的概率。
KF濾波狀態(tài)更新
最終估計
軌跡管理
由于檢測算法會產(chǎn)生誤檢和漏檢,為消除其對跟蹤算法的影響,建立軌跡管理模塊對軌跡的生成和消亡進(jìn)行管理。本文中采用基于歷史軌跡信息的軌跡管理器,其依托于歷史軌跡的跟蹤信息對軌跡的生成和消亡進(jìn)行管理。對于軌跡的生成,由于檢測算法會出現(xiàn)誤檢,因此不能直接將新目標(biāo)當(dāng)作軌跡起始。設(shè)置閾值fs與fmin,當(dāng)在連續(xù)fs幀中,新目標(biāo)能夠成功關(guān)聯(lián)fmin幀,即判定新軌跡確認(rèn)。通過合適的fs與fmin閾值設(shè)定,即可有效消除檢測中誤檢的影響,準(zhǔn)確生成軌跡。對于軌跡消亡采取類似的閾值fd與fmax,在連續(xù)的fd幀中,已有軌跡fmax幀沒有關(guān)聯(lián)到檢測,即將該軌跡刪除實現(xiàn)軌跡的消亡。
實驗
為了驗證上述所提出的跟蹤方法在實際復(fù)雜環(huán)境中的跟蹤性能,在公開數(shù)據(jù)集KITTI上對算法進(jìn)行評估,同時在無人車實驗平臺上進(jìn)行真實道路環(huán)境中的算法驗證。
離線實驗
數(shù)據(jù)集
本文中采用KITTI的跟蹤數(shù)據(jù)集,其數(shù)據(jù)集分為包含真值數(shù)據(jù)的21個序列共8008幀訓(xùn)練數(shù)據(jù)和不包含真值數(shù)據(jù)的29個序列共11095幀測試數(shù)據(jù)。本文中對訓(xùn)練數(shù)據(jù)進(jìn)行了訓(xùn)練集和驗證集的分割,并依據(jù)相關(guān)文獻(xiàn),使用1、6、8、10、12、13、14、15、16、18、19序列進(jìn)行驗證。
評價方法
在文獻(xiàn)[11]和文獻(xiàn)[12]中評價跟蹤精度所使用的速度誤差和航向角誤差,更適合單目標(biāo)跟蹤,無法綜合評價多目標(biāo)跟蹤的精度。因此本文中采用多目標(biāo)跟蹤指標(biāo)(multiple object tracking,MOT)、包含多目標(biāo)跟蹤準(zhǔn)確度(multiple object tracking accuracy,MOTA)、多目標(biāo)跟蹤精度(multiple object tracking precision,MOTP)、跟蹤ID切換數(shù)(ID switch,IDS)和跟蹤軌跡的中斷數(shù)(fragmentations,F(xiàn)RAG)等。
其中MOTA是綜合評價跟蹤軌跡精確性的指標(biāo),其反映了誤檢、漏檢和軌跡切換數(shù)在整體跟蹤真值中的比例。
MOTA、MOTP值越大跟蹤結(jié)果越好,IDS、FRAG值越小跟蹤結(jié)果越好。KITTI數(shù)據(jù)集的官方評價是以2D的形式實現(xiàn)的,對于3D跟蹤則將其投影到2D圖像中再進(jìn)行評價。這種評價方式對于3D跟蹤是不合適的,在3D跟蹤結(jié)果中微小的差異可能會導(dǎo)致2D的結(jié)果發(fā)生巨大的變化,因此本文中將MOTA與MOTP的評價計算改為3D匹配的方式。
實驗結(jié)果
使用在訓(xùn)練數(shù)據(jù)中劃分出來的驗證集對算法性能進(jìn)行驗證,其結(jié)果如表1所示。由表1可知,在主要的跟蹤指標(biāo)MOTA上對比算法mmMOT與FANTrack高了7%,而在MOTP與FRAG指標(biāo)上較最好的mmMOT算法差距并不大,僅在IDS指標(biāo)上效果較差。在這樣的結(jié)果下,本文中算法實時性達(dá)到266.1FPS,比FANTrack算法快了11.5倍,比mmMOT算法快55.4倍,所提出的跟蹤算法完全滿足智能駕駛實時性的需求。
選擇KITTI訓(xùn)練集序列9進(jìn)行跟蹤,可視化結(jié)果如圖4所示。圖4(a)為3D視角下的跟蹤結(jié)果,分別顯示了檢測結(jié)果與跟蹤結(jié)果,同時對每個跟蹤軌跡分配了編號。圖4(b)~圖4(e)驗證了所提出的跟蹤算法對車輛目標(biāo)跟蹤效果。對照右側(cè)的場景圖片,可以看到在自車前方編號為T279和T217的兩輛車輛在整個跟蹤過程中都保持了跟蹤編號不變,驗證了所提出的跟蹤算法具有穩(wěn)定跟蹤目標(biāo)的能力。
圖4 跟蹤結(jié)果
如圖4(b)右側(cè)的場景圖片所示,第170幀中有效的檢測目標(biāo)只有T279和T217兩輛車,但檢測算法輸出了多個誤檢目標(biāo)。此時,在圖4(b)左側(cè)的跟蹤結(jié)果視圖中所提出的跟蹤算法有效濾除了誤檢目標(biāo),生成了正確的軌跡。此種情況在圖4(c)~圖4(e)中也有出現(xiàn),綜合驗證了所提出跟蹤算法所具有的優(yōu)秀關(guān)聯(lián)能力。
對比實驗
為了驗證論文所提方法的有效性,對關(guān)聯(lián)算法、關(guān)聯(lián)向量與關(guān)聯(lián)距離、軌跡管理和波門設(shè)置在KITTI數(shù)據(jù)集上進(jìn)行了對比實驗,從而驗證提出方法的有效性。
不同的關(guān)聯(lián)算法
對比不同的關(guān)聯(lián)算法,其結(jié)果如表2所示。從中可以看出,使用GNN使得MOTA有了極大的提升,同時也實現(xiàn)了IDS與FRAG最小,僅在MOTP指標(biāo)上較差。正如在1.2節(jié)中所述,在獲得3D檢測結(jié)果后,干擾有了較大的衰減,因此不考慮干擾的GNN關(guān)聯(lián)算法反而更加適應(yīng)此種情況,可以獲得更好的關(guān)聯(lián)結(jié)果。
不同的關(guān)聯(lián)向量與關(guān)聯(lián)距離
對關(guān)聯(lián)向量與關(guān)聯(lián)距離的不同設(shè)置進(jìn)行對比,其結(jié)果如表3所示。從表3中第1組與第4組對比可以看出,馬氏距離可以實現(xiàn)更高的MOTA精度。馬氏距離可以更好地描述關(guān)聯(lián)向量不同信息間的重要程度,使得對目標(biāo)間距離的評價更加準(zhǔn)確。而后3組的實驗對比顯示了單純的增大關(guān)聯(lián)向量維度并不能帶來MOTA精度的提高。第2組與第4組對比可以看出目標(biāo)3D體積信息的添加對關(guān)聯(lián)是有益的。而第3組與第4組對比,朝向角θ的加入,并不能提高M(jìn)OTA精度。本文中認(rèn)為3D檢測算法對目標(biāo)的朝向角敏感度較低,對于同一目標(biāo)在不同幀中的檢測結(jié)果,其朝向角大小可能會發(fā)生180°的突變。朝向角發(fā)生180°突變,其檢測框位置不會發(fā)生變化,然而3D跟蹤的關(guān)聯(lián)距離會產(chǎn)生較大的變化,從而導(dǎo)致關(guān)聯(lián)失敗,因此在關(guān)聯(lián)向量中去除朝向角θ信息反而能帶來MOTA精度的提高。
不同的軌跡管理閾值設(shè)置
在軌跡管理模塊中對比了不同的fs與fmin、fd與fmax參數(shù)值對精度的影響,其結(jié)果如表4所示。對比表4后3組實驗可知,增大對歷史軌跡的判斷范圍,即使軌跡生成和消亡的總體判定比fmin/fs與fmax/fd從2/3下降到3/5,仍可減小IDS與FRAG。而在合適的fs與fd設(shè)置下,將fmin/fs與fmax/fd升至1,如第1組實驗,即可獲得最小的IDS與FRAG。
不同波門算法
對比所提出的雙波門算法與單波門算法的性能,其結(jié)果如表5所示。從表5可知,雙波門算法比單波門算法在MOTA指標(biāo)上有約3%的提高,在MOTP指標(biāo)上也有1.68%的提升,僅在IDS與FRAG上有所下降。除了精度上的提高,在算法運行速度上,由于雙波門算法減小了跟蹤算法的計算量,使跟蹤速度有了較大的提升,F(xiàn)PS上漲了32.92%。
實車驗證
使用如圖5所示的無人車實驗平臺,在實際道路上對跟蹤算法進(jìn)行算法驗證,其結(jié)果如圖6所示。
圖5 無人車實驗平臺
圖6分別展示了兩車相近、兩車相離、兩車發(fā)生遮擋、兩車遮擋結(jié)束4個場景的實景圖和跟蹤結(jié)果。圖6(a)和圖6(b)展示了T2車輛與T4車輛兩車逐漸相近、隨后T2車輛加速駛離的過程。在這個過程中兩車跟蹤框無相交,且跟蹤ID沒有發(fā)生交換,驗證了所提出跟蹤算法在目標(biāo)相近時的多目標(biāo)數(shù)據(jù)關(guān)聯(lián)能力。圖6(c)和圖6(d)展示了T4車輛被T1車輛遮擋導(dǎo)致檢測結(jié)果消失的情況下,所提出跟蹤算法依然能夠保證對T4車輛的持續(xù)跟蹤,確保在遮擋結(jié)束后跟蹤ID不發(fā)生變化。同時,在圖6(d)中,在T3車輛被T1車輛遮擋導(dǎo)致檢測結(jié)果消失情況下,T3車輛仍存在的跟蹤結(jié)果也證明了所提出跟蹤算法具有的對遮擋目標(biāo)的持續(xù)跟蹤能力。整個跟蹤過程驗證了所提出的跟蹤算法所具有的良好性能和魯棒性。
圖 6 實車數(shù)據(jù)驗證
本文中提出了一種基于激光雷達(dá)的3D實時車輛跟蹤算法。針對3D檢測結(jié)果雜波較少的特點,提出了雙波門GNN作為數(shù)據(jù)關(guān)聯(lián)算法,有效提升了跟蹤精度和跟蹤速度。同時對關(guān)聯(lián)向量和關(guān)聯(lián)距離進(jìn)行了優(yōu)化,在保證了算法的通用性的前提下提升了跟蹤算法的性能。對于3D機(jī)動目標(biāo)的運動情況,提出了使用3D卡爾曼濾波的IMM算法,保證了對機(jī)動目標(biāo)的跟蹤性能。所提出算法在公開數(shù)據(jù)集KITTI與無人車實驗平臺上經(jīng)過了驗證,表明了算法的高精度和良好的實時性。
參考文獻(xiàn)
[1] SVENSSON L,SVENSSON D,GUERRIERO M,et al. Set JPDA filter for multitarget tracking[J]. IEEE Transactions on Signal Pro? cessing,2011,59(10):4677-4691.
[2] BLACKMAN S. Multiple hypothesis tracking for multiple target tracking[J]. IEEE Aerospace and Electronic Systems Magazine, 2009,19(1):5-18.
[3] KonSTANTINOVA P,UDVAREV A,SEMERDJIEV T. A study of a target tracking algorithm using global nearest neighbor ap? proach[C]. Proceedings of the International Conference on Com? puter Systems and Technologies,2003:290-295.
[4] FARUQI F A,DAVIS R C. Kalman filter design for target track? ing[J]. IEEE Transactions on Aerospace and Electronic Systems, 1980,4:500-508.
[5] WAN E A,DER MERWE RVAN. The unscented Kalman filter for nonlinear estimation[C]. Proceedings of the IEEE 2000 Adap? tive Systems for Signal Processing,Communications,and Control Symposium(Cat. No. 00EX373),2000:153-158.
[6] SHERRAH J,RISTIC B,REDDING N J. Particle filter to track multiple people for visual surveillance[J]. IET Computer Vision, 2011,5(4):192-200.
[7] GENOVESE A F. The interacting multiple model algorithm for ac? curate state estimation of maneuvering targets[J]. Johns Hopkins APL Technical Digest,2001,22(4):614-623.
[8] baseR E,BALASUBRAMANIAN V,BHATTACHARYYA P, et al. Fantrack:3d multi ?object tracking with feature association network[C]. 2019 IEEE Intelligent Vehicles Symposium(IV). IEEE,2019:1426-1433.
[9] ZHANG W,ZHOU H,SUN S,et al. Robust multi?modality multi? object tracking[C]. Proceedings of the IEEE International Confer? ence on Computer Vision,2019:2365-2374.
[10] FROSSARD D,URTASUN R. End?to?end learning of multi?sen? sor 3d tracking by detection[C]. 2018 IEEE International Confer? ence on Robotics and Automation (ICRA). IEEE, 2018:635-642.
[11] 徐國艷,牛歡,郭宸陽,等. 基于三維激光點云的目標(biāo)識別與跟蹤研究[J]. 汽車工程,2020,42(1):38-46. XU Guoyan,NIU Huan,GUO Chenyang,et al. Research on tar? get recognition and tracking based on 3D laser point cloud[J]. Au? tomotive Engineering,2020,42(1):38-46.
[12] 謝德勝,徐友春,王任棟,等. 基于三維激光雷達(dá)的無人車障礙物檢測與跟蹤[J]. 汽車工程,2018,40(8):952-959. XIE Desheng,XU Youchun,WANG Rendong,et al. Obstacle detection and tracking for unmanned vehicles based on 3D laser radar[J]. Automotive Engineering,2018,40(8):952-959.
[13] XIANG Y,ALAHI A,SAVARESE S. Learning to track:online multi ? object tracking by decision making[C].Proceedings of the IEEE International Conference On Computer Vision,2015:4705- 4713.
[14] 婁新雨,王海,蔡英鳳,等. 采用64線激光雷達(dá)的實時道路障礙物檢測與分類算法的研究[J]. 汽車工程,2019,41(7):779-784. LOU Xinyu,WANG Hai,CAI Yingfeng,et al. A research on an algorithm for real ?time detection and classification of road obsta? cle by using 64?line lidar[J]. Automotive Engineering,2019,41 (7):779-754.
[15] SHI S,GUO C,JIANG L,et al. Pv?rcnn:point?voxel feature set abstraction for 3d object detection[C]. Proceedings of the IEEE/ CVF Conference on Computer Vision and Pattern Recognition, 2020:10529-10538.
[16] SHI S,WANG X,LI H. Pointrcnn:3D object proposal genera? tion and detection from point cloud[C]. Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition,2019:770-779.
[17] RACHMAN A S A. 3D?lidar multi object tracking for autonomous driving[D]. Delft:Delft University of Technology,2017.
[18] 文龍 . 基于車載激光雷達(dá)的無人駕駛車輛障礙物檢測與跟蹤 技術(shù)研究[D]. 長春:吉林大學(xué),2020. WEN Long. Research on obstacle detection and tracking technolo? gy of autonomous vehicle based on lidar[D]. Changchun:Jilin University,2020.
[19] CHIU H,PRIOLETTI A,LI J,et al. Probabilistic 3D multi ?ob? ject tracking for autonomous driving[J]. arXiv Preprint,arXiv:2001.05673,2020. [20] BERNARDIN K,STIEFELHAGEN R. evaluating multiple object tracking performance:the CLEAR MOT metrics[J]. EURASIP Journal on Image and Video Processing,2008,2008:1-10.
[21] LI Y,HUANG C,NEVATIA R. Learning to associate:hybrid? boosted multi ? target tracker for crowded scene[C]. 2009 IEEE Conference on Computer Vision and Pattern Recognition. IEEE, 2009:2953-2960.
轉(zhuǎn)載請注明出處。