| 1 | 1/1 | 返回列表 |
| 查看: 1287 | 回復(fù): 0 | |||
張一123新蟲(chóng) (初入文壇)
|
[交流]
人工智能領(lǐng)域開(kāi)展標(biāo)準(zhǔn)化研究
|
|
基于深度學(xué)習(xí)的復(fù)雜背景雷達(dá)圖像多目標(biāo)檢測(cè) 人工智能技術(shù)與咨詢(xún) 4天前 本文來(lái)自《系統(tǒng)工程與電子技術(shù)》,作者周龍等 摘 要:針對(duì)傳統(tǒng)雷達(dá)圖像目標(biāo)檢測(cè)方法在海雜波及多種干擾物組成的復(fù)雜背景下目標(biāo)分類(lèi)識(shí)別率低、虛警率高的問(wèn)題,提出將當(dāng)前熱點(diǎn)研究的深度學(xué)習(xí)方法引入到雷達(dá)圖像目標(biāo)檢測(cè)。首先分析了目前先進(jìn)的YOLOv3檢測(cè)算法優(yōu)點(diǎn)及應(yīng)用到雷達(dá)圖像領(lǐng)域的局限,并構(gòu)建了海雜波環(huán)境下有干擾物的艦船目標(biāo)檢測(cè)數(shù)據(jù)集,數(shù)據(jù)集包含了不同背景、分辨率、目標(biāo)物位置關(guān)系等條件,能夠較完備地滿(mǎn)足實(shí)際任務(wù)需要。針對(duì)該數(shù)據(jù)集包含目標(biāo)稀疏、目標(biāo)尺寸小的特點(diǎn),首先利用K-means算法計(jì)算適合該數(shù)據(jù)集的錨點(diǎn)坐標(biāo);其次在YOLOv3的基礎(chǔ)上提出改進(jìn)多尺度特征融合預(yù)測(cè)算法,融合了多層特征信息并加入空間金字塔池化。通過(guò)大量對(duì)比實(shí)驗(yàn),在該數(shù)據(jù)集上,所提方法相比原YOLOv3檢測(cè)精度提高了6.07%。 關(guān)鍵詞:深度學(xué)習(xí); 雷達(dá)圖像; 目標(biāo)檢測(cè); YOLOv3 0 引 言 在軍事偵察、目標(biāo)打擊領(lǐng)域,對(duì)雷達(dá)圖像中海上艦船目標(biāo)檢測(cè)研究一直備受關(guān)注。由于海洋環(huán)境的復(fù)雜性,刻畫(huà)海雜波特性難度大,同時(shí),考慮海上環(huán)境下還存在各種人為干擾物,目標(biāo)背景復(fù)雜,雷達(dá)回波信雜比低,都對(duì)海上目標(biāo)檢測(cè)帶來(lái)了難度[1]。傳統(tǒng)的雷達(dá)圖像目標(biāo)檢測(cè)一般利用先驗(yàn)知識(shí)通過(guò)候選區(qū)域提取特征。經(jīng)典的恒虛警檢測(cè)(constant false alarm detection,CFAR)檢測(cè)只對(duì)背景信息統(tǒng)計(jì)建模,沒(méi)有考慮對(duì)目標(biāo)信息的完整建模,只是利用目標(biāo)成像區(qū)域的部分特征來(lái)檢測(cè),沒(méi)有充分利用全局特征,漏警率較高[2];后續(xù)對(duì)CFAR算法的改進(jìn)主要集中在更完備的特征利用,例如1992年ROBEY F C等人利用似然比準(zhǔn)則構(gòu)建自適應(yīng)匹配濾波(adaptive matched filter,AMF)[3];2014年SHUI P L等人通過(guò)構(gòu)建三維特征空間進(jìn)一步提高檢測(cè)精度[4];顧丹丹等提出基于積分圖像的快速CFAR算法,相比同類(lèi)算法提高了運(yùn)算速度[5];針對(duì)高分辨率雷達(dá)圖像中水面艦船目標(biāo)的檢測(cè),HOU B等人提出多尺度自適應(yīng)選取區(qū)域的CFAR算法,具有較好的檢測(cè)效果[6]。另一類(lèi)基于模式識(shí)別的目標(biāo)檢測(cè)方法通過(guò)某種匹配規(guī)則將訓(xùn)練樣本與待測(cè)樣本比對(duì),例如,2012年劉寧波等人提出基于分形可變步長(zhǎng)的最小二乘法的檢測(cè)算法[7]。利用圖像的多幀信息累計(jì)檢測(cè)也是一種有效方法,例如,CHEN X L等人利用目標(biāo)在距離域和多普勒域累計(jì)走動(dòng)信息,提出基于Radon-分?jǐn)?shù)階傅里葉變換的長(zhǎng)時(shí)間相參積累檢測(cè)方法[8];陳唯實(shí)等人從信號(hào)處理的角度,基于時(shí)域特性和空域特性,針對(duì)低空非相參雷達(dá)弱小目標(biāo)檢測(cè),取得了良好的表現(xiàn)[9-10]。傳統(tǒng)特征提取方法常常需要考慮特定環(huán)境下信息建;蛘咂ヅ湟(guī)則,但由于現(xiàn)代戰(zhàn)場(chǎng)環(huán)境的復(fù)雜多變,干擾對(duì)抗激烈,特定的統(tǒng)計(jì)建模和規(guī)則匹配只適用于特定的戰(zhàn)場(chǎng)環(huán)境,同時(shí)由于雷達(dá)圖像成像機(jī)理復(fù)雜,目標(biāo)物本身輪廓、方位、尺寸、背景干擾等的變化都會(huì)影響實(shí)際目標(biāo)檢測(cè)的結(jié)果,人工設(shè)定的信息建模和匹配規(guī)則難以通用,具有較大的局限。 2012年,AlexNet在ImageNet圖像分類(lèi)大賽中一舉成名,證明了更深的卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)具有更好的特征提取能力,遠(yuǎn)超其他傳統(tǒng)特征提取方法[11]。此后,冠以深度學(xué)習(xí)的CNN發(fā)展如火如荼,誕生了ZFNet、VGGNet、ResNet[12-14],不斷刷新記錄,引領(lǐng)了新一代人工智能的浪潮。基于深度學(xué)習(xí)的特征提取方法以其強(qiáng)大的表達(dá)能力,迅速被應(yīng)用在各個(gè)領(lǐng)域。 2014年,GIRSHICK R首次將深度學(xué)習(xí)應(yīng)用于目標(biāo)檢測(cè)領(lǐng)域,提出基于候選區(qū)域的目標(biāo)檢測(cè)算法R-CNN[15],首先通過(guò)滑動(dòng)窗口提取感興趣區(qū)域,再利用CNN提取特征做出目標(biāo)分類(lèi),相比傳統(tǒng)算法具有明顯的優(yōu)勢(shì)。現(xiàn)今,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)技術(shù)成為這一領(lǐng)域的主流研究方法。從基于候選區(qū)域的R-CNN衍生出SPP-NET、Fast R-CNN、Faster R-CNN這一系列two-stage檢測(cè)方法[16-18],Faster R-CNN 通過(guò)候選區(qū)域網(wǎng)絡(luò)(region proposal network,RPN)選出感興趣區(qū)域,接入Fast R-CNN,與其共享卷積層,在VOC數(shù)據(jù)集上檢測(cè)精度達(dá)到了73%。然而這些網(wǎng)絡(luò)無(wú)法實(shí)現(xiàn)start-to-start訓(xùn)練,檢測(cè)速度慢,難以滿(mǎn)足實(shí)時(shí)檢測(cè)的要求。 2016年REDMON J提出的YOLO(You only look once)是one-stage的代表方法[19],實(shí)現(xiàn)了start-to-start的訓(xùn)練,將目標(biāo)檢測(cè)問(wèn)題由分類(lèi)問(wèn)題轉(zhuǎn)換為回歸問(wèn)題,檢測(cè)速度有了質(zhì)的提高,相比two-stage框架具有明顯速度優(yōu)勢(shì)。之后,基于one-stage系列的目標(biāo)檢測(cè)發(fā)展出YOLOv2、SSD、DSSD、RetinaNet、YOLOv3[20-24]。最新的YOLOv3同時(shí)兼顧檢測(cè)精度和速度,對(duì)于608×608分辨率的圖片,在COCO數(shù)據(jù)集上檢測(cè)精度達(dá)到了57.9%,檢測(cè)速度達(dá)到了20 fps,滿(mǎn)足實(shí)時(shí)檢測(cè)的需求。 提出將基于one-stage的最新目標(biāo)檢測(cè)框架YOLOv3引入到雷達(dá)圖像中的目標(biāo)檢測(cè),將對(duì)YOLOv3作詳細(xì)介紹并分析應(yīng)用在雷達(dá)圖像目標(biāo)檢測(cè)的局限。構(gòu)建的雷達(dá)圖像數(shù)據(jù)集包含的都是小目標(biāo),為了提高小目標(biāo)的檢測(cè)精度,改進(jìn)了YOLOv3預(yù)測(cè)層,在縱向上融合多層基礎(chǔ)特征提取網(wǎng)絡(luò)生成的特征圖,橫向上在每個(gè)預(yù)測(cè)層引入空間金字塔池化。同時(shí),在一些細(xì)節(jié)上做出改進(jìn)。最后,通過(guò)進(jìn)一步對(duì)比實(shí)驗(yàn),驗(yàn)證了所提方法的可行性。 1 基于YOLOv3的雷達(dá)圖像目標(biāo)檢測(cè) 2018年3月Redmon提出YOLOv3,是目前目標(biāo)檢測(cè)領(lǐng)域最具代表性的框架之一。YOLOv3首先通過(guò)基礎(chǔ)特征提取網(wǎng)絡(luò)darknet-53提取特征,得到一定尺度的特征圖,同時(shí),在輸入圖像上設(shè)定與特征圖相同大小的grid cell,如果ground truth中某個(gè)目標(biāo)的中心坐標(biāo)落在哪個(gè)grid cell中,那么就由該grid cell來(lái)預(yù)測(cè)該目標(biāo),YOLOv3中每個(gè)grid cell都會(huì)預(yù)測(cè)3個(gè)bounding box,最終選擇和ground truth的IOU最大的bounding box來(lái)預(yù)測(cè)該目標(biāo)。YOLOv3類(lèi)別預(yù)測(cè)結(jié)構(gòu)如圖1所示。 圖片 圖1 YOLOv3類(lèi)別預(yù)測(cè)結(jié)構(gòu) Fig.1 Class prediction structure of YOLOv3 最終得到邊框坐標(biāo)計(jì)算公式為 bx=σ(tx)+cx (1) by=σ(ty)+cy (2) bw=pwetw (3) bh=pheth (4) 式中,(cx,cy)是網(wǎng)格的坐標(biāo)偏移量;(pw,ph)是預(yù)設(shè)的anchor box的邊長(zhǎng);最終得到邊框坐標(biāo)值是(bx,by,bw,bh);網(wǎng)絡(luò)學(xué)習(xí)目標(biāo)是(tx,ty,tw,th)。同時(shí),將用于bounding box分類(lèi)的Softmax函數(shù)用多個(gè)logistic分類(lèi)器替代。 YOLOv3采用多尺度融合的方式做預(yù)測(cè),分別融合了13×13、26×26、52×52大小的特征圖;A(chǔ)特征提取網(wǎng)絡(luò)采用作者設(shè)計(jì)的Darknet-53,該網(wǎng)絡(luò)借鑒殘差神經(jīng)網(wǎng)絡(luò)ResNet的residual結(jié)構(gòu),同時(shí)大量使用3×3和1×1結(jié)構(gòu),使得網(wǎng)絡(luò)層數(shù)加深,精度有了明顯提升。 YOLOv3的loss函數(shù)采用均方和誤差的方法整合了坐標(biāo)誤差、置信誤差和分類(lèi)誤差,其數(shù)學(xué)抽象表達(dá)式為 圖片 (5) 通過(guò)引入置信誤差項(xiàng),將網(wǎng)格是否包含目標(biāo)分開(kāi)討論,很好地解決了坐標(biāo)誤差和分類(lèi)誤差權(quán)值一致時(shí)訓(xùn)練不穩(wěn)定的問(wèn)題。 當(dāng)前,基于深度學(xué)習(xí)的目標(biāo)檢測(cè)模型大都應(yīng)用于光學(xué)圖像,基本上在公開(kāi)數(shù)據(jù)集如ImageNet、COCO、VOC做訓(xùn)練測(cè)試。 應(yīng)用到的圖像是雷達(dá)回波數(shù)據(jù)在距離多普勒域上的成像。圖像包含了海雜波等背景噪聲,艦船及人工干擾物相比整張圖像所占像素較少,且分布稀疏,因而會(huì)對(duì)目標(biāo)物檢測(cè)帶來(lái)影響,為了提高檢測(cè)準(zhǔn)確率,往往同時(shí)會(huì)增加虛警;距離多普勒?qǐng)D像中幾類(lèi)目標(biāo)均沒(méi)有明顯的輪廓信息,只是集中分布的一簇亮點(diǎn),特征稀少,相互難以區(qū)分,并且目標(biāo)之間的距離很近,容易形成誤判。雷達(dá)圖像信息量相比光學(xué)圖像嚴(yán)重不足,在成像機(jī)理、目標(biāo)特性、分辨率方面差異顯著,將公開(kāi)的YOLOv3模型直接應(yīng)用于構(gòu)建的雷達(dá)圖像數(shù)據(jù)集,很難獲得理想的檢測(cè)結(jié)果。 2 改進(jìn)YOLOv3結(jié)構(gòu) 2.1 數(shù)據(jù)集構(gòu)建 基于深度學(xué)習(xí)的目標(biāo)檢測(cè)技術(shù)對(duì)數(shù)據(jù)集具有很強(qiáng)的依賴(lài)性,數(shù)據(jù)集是否包含具有代表性的信息對(duì)后續(xù)的訓(xùn)練檢測(cè)直接起到?jīng)Q定性作用。所用數(shù)據(jù)從科研外場(chǎng)試驗(yàn)中獲得,包含了不同背景條件、目標(biāo)物位置關(guān)系、分辨率、不同距離下的成像,共計(jì)6萬(wàn)余張,能夠較完備地反映真實(shí)場(chǎng)景。按照訓(xùn)練集、測(cè)試集、驗(yàn)證集7∶2∶1的比例劃分成3組,每組圖像均衡包含各種場(chǎng)景條件,最終得到了構(gòu)建的數(shù)據(jù)集。 圖片 圖2 數(shù)據(jù)集部分樣本 Fig.2 Some samples of data set 如圖2,圖片包含的背景噪聲為海雜波,需要識(shí)別的3類(lèi)目標(biāo)為艦船和兩類(lèi)干擾物。采用標(biāo)簽工具Yolo_mark對(duì)數(shù)據(jù)集進(jìn)行標(biāo)注,用Target1、Target2、Target3分別表示艦船、干擾物1、干擾物2,位置信息包括目標(biāo)點(diǎn)的中心坐標(biāo)x,y以及默認(rèn)框的寬高w,h。 2.2 聚類(lèi)初始化先驗(yàn)框 YOLOv3沿用了YOLOv2采用K-means聚類(lèi)的方法初始化anchor boxes,有別于Faster R-CNN 和 SSD中采用人工設(shè)定,更加符合本身數(shù)據(jù)的特點(diǎn)。使用距離度量公式為 d(box,centroid)=1-IOU(box,centroid) (6) 式中,centroid 表示聚類(lèi)(xj,yj,Wi,Hi);box表示真實(shí)框(xj,yj,wj,hj),j∈{1,2,…,N},i∈{1,2,…,k};IOU(box,centroid)表示真實(shí)框和預(yù)測(cè)框的交并比。 由于anchor boxes位置不確定,只利用寬和高做計(jì)算。重新計(jì)算公式為 圖片 (7) 圖片 (8) 式中,Ni是第i個(gè)聚類(lèi)中心的真實(shí)框個(gè)數(shù)。 針對(duì)所給數(shù)據(jù)集,原始YOLOv3中9個(gè)anchor boxes對(duì)于3類(lèi)目標(biāo)是合理的,在數(shù)量上不做改變。在該數(shù)據(jù)集上采用K-means得到的anchor boxes為(49,32)(37,61)(83,64)(57,109)(69,128)(73,170)(130,130)(156,111)(89,218),符合圖像扁長(zhǎng)的特點(diǎn),驗(yàn)證了K-means方法的有效性。 2.3 改進(jìn)多尺度特征預(yù)測(cè)結(jié)構(gòu) 針對(duì)雷達(dá)圖像中檢測(cè)目標(biāo)尺度小的特點(diǎn),需要進(jìn)一步加強(qiáng)對(duì)小目標(biāo)的檢測(cè)能力。在基礎(chǔ)特征提取網(wǎng)絡(luò)中,低層大尺度的特征圖具有更高的分辨率,能刻畫(huà)更準(zhǔn)確的位置信息,但語(yǔ)義信息較少;高層特征圖包含更豐富的語(yǔ)義信息,但刻畫(huà)目標(biāo)點(diǎn)的位置信息較為粗略。因此,越靠前的特征圖對(duì)小目標(biāo)的位置刻畫(huà)越具代表性,即大尺度的特征圖對(duì)應(yīng)小目標(biāo),同時(shí),更多特征圖的融合能進(jìn)一步提高檢測(cè)精度;谶@一思想,在縱向上利用了Darknet-53產(chǎn)生104×104、52×52、26×26、13×13大小的特征圖,按照預(yù)測(cè)層越往后,利用的特征圖尺寸越大的思路,將預(yù)測(cè)層特征圖進(jìn)行上采樣至同樣大小,然后做拼接,再做下一步標(biāo)準(zhǔn)化卷積運(yùn)算。 在橫向的每一層預(yù)測(cè)層上,借鑒SPP-Net的思想,采用空間金字塔池化,首先將原始圖像上的候選框映射到經(jīng)過(guò)多尺度融合后的特征圖上,映射關(guān)系為 (x,y)=(S*x′,S*y′) (9) 式中,(x,y)表示原始圖像上的坐標(biāo);(x′,y′)表示對(duì)應(yīng)特征圖上的坐標(biāo);S表示基礎(chǔ)特征提取網(wǎng)絡(luò)中所有步長(zhǎng)的乘積。然后在映射后的區(qū)域利用不同大小的滑動(dòng)窗口特征圖進(jìn)行最大池化。 圖3為改進(jìn)YOLOv3的結(jié)構(gòu)框圖;圖4示例了加入空間金字塔池化的尺度二預(yù)測(cè)框圖,在尺度不變的條件下,通過(guò)加入空間金字塔池化進(jìn)一步拓寬了特征圖的通道數(shù),因而具有更強(qiáng)的細(xì)節(jié)特征描述能力。 圖片 圖3 改進(jìn)YOLOv3結(jié)構(gòu) Fig.3 Improved YOLOv3 structure 圖片 圖4 改進(jìn)尺度二預(yù)測(cè)結(jié)構(gòu) Fig.4 Improved scale 2 prediction structure 2.4 其他細(xì)節(jié) 學(xué)習(xí)率決定了loss下降到最優(yōu)值的速度快慢,如果學(xué)習(xí)率過(guò)大,容易出現(xiàn)超調(diào)現(xiàn)象,導(dǎo)致函數(shù)無(wú)法收斂,甚至發(fā)散;反之,如果學(xué)習(xí)率過(guò)小,可能會(huì)導(dǎo)致隨著迭代次數(shù)的增加loss基本不變,致使算法陷入局部最優(yōu)。為保證loss穩(wěn)定收斂,本文采取的策略是初始用小的學(xué)習(xí)率保證loss穩(wěn)定下降,訓(xùn)練至loss基本不動(dòng)的時(shí)候調(diào)大學(xué)習(xí)率進(jìn)一步降低loss,直到loss不再下降為止,此刻,收斂到最優(yōu)值。同時(shí),開(kāi)啟多尺度訓(xùn)練,提高網(wǎng)絡(luò)的泛化能力;ignore_thresh表示bounding box與ground true的重合度,為降低背景海雜波對(duì)目標(biāo)的虛警,提高檢測(cè)速度,將ignore_thresh調(diào)至0.7。 3 對(duì)比實(shí)驗(yàn)及結(jié)果 本文實(shí)驗(yàn)環(huán)境配置如表1所示。 表1 實(shí)驗(yàn)環(huán)境配置 Table 1 Experimental environment configuration 圖片 3.1 模型的訓(xùn)練 為了能夠在同一標(biāo)準(zhǔn)下對(duì)比兩者的實(shí)驗(yàn)結(jié)果,應(yīng)用不同的學(xué)習(xí)率調(diào)整策略使其收斂至各自的最優(yōu)值,loss下降曲線(xiàn)如圖5所示。 圖片 圖5 Loss下降曲線(xiàn)對(duì)比 Fig.5 Comparison of the loss decline curve 從圖5可以看出,在該數(shù)據(jù)集上,YOLOv3訓(xùn)練波動(dòng)幅度較大,loss提前收斂,在12 000 batches達(dá)到最優(yōu),loss降至0.28;相比之下,改進(jìn)算法訓(xùn)練更加穩(wěn)定,loss波動(dòng)幅度小,最終在15 000 batches收斂,loss降至0.17。表明了改進(jìn)算法在該數(shù)據(jù)集上具有更強(qiáng)的特征表達(dá)能力。 3.2 模型的測(cè)試 算法采用的衡量指標(biāo)為查準(zhǔn)率Precision、查全率Recall、交并比IOU、平均精度均值mAP,單張圖片響應(yīng)時(shí)間T。 部分衡量指標(biāo)計(jì)算公式為 圖片 (10) 圖片 (11) 圖片 (12) 式中,TP表示被判定為正樣本,事實(shí)上也是正樣本;FP表示被判定為正樣本,但事實(shí)上是負(fù)樣本;FN表示被判定為負(fù)樣本,但事實(shí)上是正樣本。 給定閾值Threshold=0.25,對(duì)兩組訓(xùn)練結(jié)果進(jìn)行測(cè)試,衡量指標(biāo)結(jié)果對(duì)比如表2所示。 表2 衡量指標(biāo)結(jié)果對(duì)比 Table 2 Comparison of the measure results 圖片 可以看到,改進(jìn)后的算法在前4項(xiàng)指標(biāo)上具有更好的表現(xiàn),尤其在mAP上具有明顯優(yōu)勢(shì),相比原YOLOv3在本數(shù)據(jù)集上提高了6.07%;單張圖片響應(yīng)時(shí)間稍慢于原算法2.36 ms,這是因?yàn)樵陬A(yù)測(cè)層進(jìn)一步做了多尺度融合,增加了算法復(fù)雜度,考慮到場(chǎng)景需要,在軍事偵察和目標(biāo)打擊方面,精準(zhǔn)識(shí)別目標(biāo)具有更重要的意義,一旦目標(biāo)出現(xiàn)誤判,不管響應(yīng)時(shí)間多快,對(duì)后續(xù)任務(wù)實(shí)施沒(méi)有任何價(jià)值,因此,犧牲小量的響應(yīng)時(shí)間換取更高的精度是有意義的。 部分測(cè)試結(jié)果對(duì)比如圖6所示。 圖片 圖6 部分測(cè)試結(jié)果對(duì)比 Fig.6 Comparison of some test results 如圖6所示,共選取了具有代表性的6組測(cè)試結(jié)果,每組中上下圖片分別表示原YOLOv3和改進(jìn)方法。其中,圖6(a)和圖6(f)顯示了改進(jìn)方法具有更好的邊框回歸;圖6(b)~圖6(d) 3組顯示了原YOLOv3在相對(duì)位置較遠(yuǎn)時(shí)分別出現(xiàn)了誤判、漏判、虛警現(xiàn)象,改進(jìn)方法很好地解決了這些問(wèn)題;圖6(e)顯示了在目標(biāo)物相對(duì)位置很近時(shí),可以直觀地看到,所提方法依然具有良好表現(xiàn)。 綜合以上實(shí)驗(yàn)結(jié)果,充分說(shuō)明了所提方法在該數(shù)據(jù)集上的優(yōu)異性能。 3.3 進(jìn)一步實(shí)驗(yàn) 為了體現(xiàn)每一步改進(jìn)對(duì)結(jié)果的貢獻(xiàn)值,在上述實(shí)驗(yàn)的基礎(chǔ)上,又進(jìn)行了多組對(duì)比實(shí)驗(yàn),分析每一步改進(jìn)的效果并作出解釋。具體實(shí)驗(yàn)內(nèi)容及結(jié)果如表3所示。 表3 進(jìn)一步實(shí)驗(yàn)及結(jié)果 Table 3 Further experiments and results 圖片 其中,步驟1表示重新計(jì)算anchor boxes,步驟2表示預(yù)測(cè)層融合多層特征圖,步驟3表示預(yù)測(cè)層加入空間金字塔池化。從表3實(shí)驗(yàn)結(jié)果可以看出,針對(duì)數(shù)據(jù)集重新計(jì)算錨點(diǎn)使平均準(zhǔn)確率提高了1.45%,速度保持不變,這是由于符合數(shù)據(jù)集的邊框更有助于邊框的回歸,在考慮預(yù)測(cè)層結(jié)構(gòu)改進(jìn)時(shí),統(tǒng)一都使用重新計(jì)算的錨點(diǎn);方法2說(shuō)明了在預(yù)測(cè)層融合更多基礎(chǔ)特征提取網(wǎng)絡(luò)產(chǎn)生的特征圖的作用,對(duì)小目標(biāo)檢測(cè)效果提升是非常明顯的,相比方法1,mAP 提高了1.77%,響應(yīng)時(shí)間T增加了0.68 ms;方法3說(shuō)明了加入空間金字塔池化對(duì)結(jié)果的影響,相比方法1,mAP 提高了2.69%,響應(yīng)時(shí)間T增加了1.79 ms。綜合以上改進(jìn),所提方法相比原YOLOv3 mAP 提高了6.07%,響應(yīng)時(shí)間T增加了2.36 ms。 4 結(jié) 論 將基于深度學(xué)習(xí)的檢測(cè)方法應(yīng)用到雷達(dá)圖像上是目前雷達(dá)目標(biāo)檢測(cè)領(lǐng)域研究的熱點(diǎn)方向,嘗試將最新的YOLOv3檢測(cè)框架應(yīng)用進(jìn)來(lái),構(gòu)建了距離多普勒域雷達(dá)圖像數(shù)據(jù)集,改進(jìn)了YOLOv3預(yù)測(cè)層結(jié)構(gòu),融合多尺度特征圖,增加了空間金字塔池化。通過(guò)一系列對(duì)比實(shí)驗(yàn),所提方法相比原YOLOv3在該數(shù)據(jù)集上平均檢測(cè)精度提高了6.07%。 同時(shí),改進(jìn)也有其局限,網(wǎng)絡(luò)的加深使得訓(xùn)練和檢測(cè)速度變慢,訓(xùn)練得到的權(quán)重文件達(dá)到了246 MB,對(duì)于目前的硬件設(shè)備,距搭載在飛行器上應(yīng)用還有一段距離,下一步工作將圍繞網(wǎng)絡(luò)的輕量化應(yīng)用開(kāi)展研究,在滿(mǎn)足工程應(yīng)用的基礎(chǔ)上,權(quán)衡檢測(cè)精度和速度對(duì)結(jié)果的影響,找到最優(yōu)的解決方案。 圖片 |
| 1 | 1/1 | 返回列表 |
| 最具人氣熱帖推薦 [查看全部] | 作者 | 回/看 | 最后發(fā)表 | |
|---|---|---|---|---|
|
[考研] 招調(diào)劑 +6 | 帆船哥 2026-03-04 | 8/400 |
|
|---|---|---|---|---|
|
[考研] 材料調(diào)劑 +5 | ws 上岸鴨 2026-03-05 | 5/250 |
|
|
[考研] 一志愿武理085601專(zhuān)碩347分求調(diào)劑 +4 | 啊歐歐歐 2026-03-04 | 5/250 |
|
|
[考研] 306求調(diào)劑 +3 | Bahati 2026-03-05 | 3/150 |
|
|
[基金申請(qǐng)]
|
Doma 2026-03-01 | 10/500 |
|
|
[考研] 環(huán)境工程專(zhuān)碩307 一志愿211 四六級(jí)已過(guò) 求調(diào)劑 +5 | ccc! 2026-03-03 | 6/300 |
|
|
[考研] 化學(xué) 0703求調(diào)劑 總分293 一志愿211 +9 | 土土小蟲(chóng) 2026-03-03 | 11/550 |
|
|
[考研] 0856材料專(zhuān)碩274能調(diào)劑去哪里? +3 | 22735 2026-03-04 | 4/200 |
|
|
[考研] 085600材料與化工(高分子)290分求調(diào)劑 +8 | wengyujian 2026-03-04 | 8/400 |
|
|
[考研] 求調(diào)劑院校 +6 | 云朵452 2026-03-02 | 12/600 |
|
|
[考研] 266求調(diào)劑 +7 | 哇塞王帥 2026-03-03 | 7/350 |
|
|
[考研] 0855機(jī)械工程324求調(diào)劑 +3 | 鄭SK 2026-03-02 | 7/350 |
|
|
[考研] 085601 材料305分求助 +4 | 泡泡郵件 2026-03-03 | 6/300 |
|
|
[考研]
材料325求調(diào)劑
30+5
|
mariusuki 2026-03-02 | 10/500 |
|
|
[考研] 291求調(diào)劑 +4 | Afy123456 2026-03-03 | 7/350 |
|
|
[考研] 278求調(diào)劑 +3 | 滿(mǎn)天星11_22 2026-03-02 | 3/150 |
|
|
[考研] 求調(diào)劑 +11 | yunziaaaaa 2026-03-01 | 13/650 |
|
|
[考研] 0856求調(diào)劑285 +11 | 呂仔龍 2026-02-28 | 11/550 |
|
|
[考研] 材料085601調(diào)劑 +5 | 多多子. 2026-03-02 | 5/250 |
|
|
[考研]
|
LYidhsjabdj 2026-02-28 | 4/200 |
|