| 1 | 1/1 | 返回列表 |
| 查看: 1288 | 回復(fù): 0 | |||
張一123新蟲 (初入文壇)
|
[交流]
人工智能領(lǐng)域開展標(biāo)準(zhǔn)化研究
|
|
基于深度學(xué)習(xí)的復(fù)雜背景雷達(dá)圖像多目標(biāo)檢測 人工智能技術(shù)與咨詢 4天前 本文來自《系統(tǒng)工程與電子技術(shù)》,作者周龍等 摘 要:針對傳統(tǒng)雷達(dá)圖像目標(biāo)檢測方法在海雜波及多種干擾物組成的復(fù)雜背景下目標(biāo)分類識別率低、虛警率高的問題,提出將當(dāng)前熱點(diǎn)研究的深度學(xué)習(xí)方法引入到雷達(dá)圖像目標(biāo)檢測。首先分析了目前先進(jìn)的YOLOv3檢測算法優(yōu)點(diǎn)及應(yīng)用到雷達(dá)圖像領(lǐng)域的局限,并構(gòu)建了海雜波環(huán)境下有干擾物的艦船目標(biāo)檢測數(shù)據(jù)集,數(shù)據(jù)集包含了不同背景、分辨率、目標(biāo)物位置關(guān)系等條件,能夠較完備地滿足實(shí)際任務(wù)需要。針對該數(shù)據(jù)集包含目標(biāo)稀疏、目標(biāo)尺寸小的特點(diǎn),首先利用K-means算法計(jì)算適合該數(shù)據(jù)集的錨點(diǎn)坐標(biāo);其次在YOLOv3的基礎(chǔ)上提出改進(jìn)多尺度特征融合預(yù)測算法,融合了多層特征信息并加入空間金字塔池化。通過大量對比實(shí)驗(yàn),在該數(shù)據(jù)集上,所提方法相比原YOLOv3檢測精度提高了6.07%。 關(guān)鍵詞:深度學(xué)習(xí); 雷達(dá)圖像; 目標(biāo)檢測; YOLOv3 0 引 言 在軍事偵察、目標(biāo)打擊領(lǐng)域,對雷達(dá)圖像中海上艦船目標(biāo)檢測研究一直備受關(guān)注。由于海洋環(huán)境的復(fù)雜性,刻畫海雜波特性難度大,同時(shí),考慮海上環(huán)境下還存在各種人為干擾物,目標(biāo)背景復(fù)雜,雷達(dá)回波信雜比低,都對海上目標(biāo)檢測帶來了難度[1]。傳統(tǒng)的雷達(dá)圖像目標(biāo)檢測一般利用先驗(yàn)知識通過候選區(qū)域提取特征。經(jīng)典的恒虛警檢測(constant false alarm detection,CFAR)檢測只對背景信息統(tǒng)計(jì)建模,沒有考慮對目標(biāo)信息的完整建模,只是利用目標(biāo)成像區(qū)域的部分特征來檢測,沒有充分利用全局特征,漏警率較高[2];后續(xù)對CFAR算法的改進(jìn)主要集中在更完備的特征利用,例如1992年ROBEY F C等人利用似然比準(zhǔn)則構(gòu)建自適應(yīng)匹配濾波(adaptive matched filter,AMF)[3];2014年SHUI P L等人通過構(gòu)建三維特征空間進(jìn)一步提高檢測精度[4];顧丹丹等提出基于積分圖像的快速CFAR算法,相比同類算法提高了運(yùn)算速度[5];針對高分辨率雷達(dá)圖像中水面艦船目標(biāo)的檢測,HOU B等人提出多尺度自適應(yīng)選取區(qū)域的CFAR算法,具有較好的檢測效果[6]。另一類基于模式識別的目標(biāo)檢測方法通過某種匹配規(guī)則將訓(xùn)練樣本與待測樣本比對,例如,2012年劉寧波等人提出基于分形可變步長的最小二乘法的檢測算法[7]。利用圖像的多幀信息累計(jì)檢測也是一種有效方法,例如,CHEN X L等人利用目標(biāo)在距離域和多普勒域累計(jì)走動(dòng)信息,提出基于Radon-分?jǐn)?shù)階傅里葉變換的長時(shí)間相參積累檢測方法[8];陳唯實(shí)等人從信號處理的角度,基于時(shí)域特性和空域特性,針對低空非相參雷達(dá)弱小目標(biāo)檢測,取得了良好的表現(xiàn)[9-10]。傳統(tǒng)特征提取方法常常需要考慮特定環(huán)境下信息建;蛘咂ヅ湟(guī)則,但由于現(xiàn)代戰(zhàn)場環(huán)境的復(fù)雜多變,干擾對抗激烈,特定的統(tǒng)計(jì)建模和規(guī)則匹配只適用于特定的戰(zhàn)場環(huán)境,同時(shí)由于雷達(dá)圖像成像機(jī)理復(fù)雜,目標(biāo)物本身輪廓、方位、尺寸、背景干擾等的變化都會影響實(shí)際目標(biāo)檢測的結(jié)果,人工設(shè)定的信息建模和匹配規(guī)則難以通用,具有較大的局限。 2012年,AlexNet在ImageNet圖像分類大賽中一舉成名,證明了更深的卷積神經(jīng)網(wǎng)絡(luò)(convolutional neural network,CNN)具有更好的特征提取能力,遠(yuǎn)超其他傳統(tǒng)特征提取方法[11]。此后,冠以深度學(xué)習(xí)的CNN發(fā)展如火如荼,誕生了ZFNet、VGGNet、ResNet[12-14],不斷刷新記錄,引領(lǐng)了新一代人工智能的浪潮;谏疃葘W(xué)習(xí)的特征提取方法以其強(qiáng)大的表達(dá)能力,迅速被應(yīng)用在各個(gè)領(lǐng)域。 2014年,GIRSHICK R首次將深度學(xué)習(xí)應(yīng)用于目標(biāo)檢測領(lǐng)域,提出基于候選區(qū)域的目標(biāo)檢測算法R-CNN[15],首先通過滑動(dòng)窗口提取感興趣區(qū)域,再利用CNN提取特征做出目標(biāo)分類,相比傳統(tǒng)算法具有明顯的優(yōu)勢,F(xiàn)今,基于深度學(xué)習(xí)的目標(biāo)檢測技術(shù)成為這一領(lǐng)域的主流研究方法。從基于候選區(qū)域的R-CNN衍生出SPP-NET、Fast R-CNN、Faster R-CNN這一系列two-stage檢測方法[16-18],Faster R-CNN 通過候選區(qū)域網(wǎng)絡(luò)(region proposal network,RPN)選出感興趣區(qū)域,接入Fast R-CNN,與其共享卷積層,在VOC數(shù)據(jù)集上檢測精度達(dá)到了73%。然而這些網(wǎng)絡(luò)無法實(shí)現(xiàn)start-to-start訓(xùn)練,檢測速度慢,難以滿足實(shí)時(shí)檢測的要求。 2016年REDMON J提出的YOLO(You only look once)是one-stage的代表方法[19],實(shí)現(xiàn)了start-to-start的訓(xùn)練,將目標(biāo)檢測問題由分類問題轉(zhuǎn)換為回歸問題,檢測速度有了質(zhì)的提高,相比two-stage框架具有明顯速度優(yōu)勢。之后,基于one-stage系列的目標(biāo)檢測發(fā)展出YOLOv2、SSD、DSSD、RetinaNet、YOLOv3[20-24]。最新的YOLOv3同時(shí)兼顧檢測精度和速度,對于608×608分辨率的圖片,在COCO數(shù)據(jù)集上檢測精度達(dá)到了57.9%,檢測速度達(dá)到了20 fps,滿足實(shí)時(shí)檢測的需求。 提出將基于one-stage的最新目標(biāo)檢測框架YOLOv3引入到雷達(dá)圖像中的目標(biāo)檢測,將對YOLOv3作詳細(xì)介紹并分析應(yīng)用在雷達(dá)圖像目標(biāo)檢測的局限。構(gòu)建的雷達(dá)圖像數(shù)據(jù)集包含的都是小目標(biāo),為了提高小目標(biāo)的檢測精度,改進(jìn)了YOLOv3預(yù)測層,在縱向上融合多層基礎(chǔ)特征提取網(wǎng)絡(luò)生成的特征圖,橫向上在每個(gè)預(yù)測層引入空間金字塔池化。同時(shí),在一些細(xì)節(jié)上做出改進(jìn)。最后,通過進(jìn)一步對比實(shí)驗(yàn),驗(yàn)證了所提方法的可行性。 1 基于YOLOv3的雷達(dá)圖像目標(biāo)檢測 2018年3月Redmon提出YOLOv3,是目前目標(biāo)檢測領(lǐng)域最具代表性的框架之一。YOLOv3首先通過基礎(chǔ)特征提取網(wǎng)絡(luò)darknet-53提取特征,得到一定尺度的特征圖,同時(shí),在輸入圖像上設(shè)定與特征圖相同大小的grid cell,如果ground truth中某個(gè)目標(biāo)的中心坐標(biāo)落在哪個(gè)grid cell中,那么就由該grid cell來預(yù)測該目標(biāo),YOLOv3中每個(gè)grid cell都會預(yù)測3個(gè)bounding box,最終選擇和ground truth的IOU最大的bounding box來預(yù)測該目標(biāo)。YOLOv3類別預(yù)測結(jié)構(gòu)如圖1所示。 圖片 圖1 YOLOv3類別預(yù)測結(jié)構(gòu) Fig.1 Class prediction structure of YOLOv3 最終得到邊框坐標(biāo)計(jì)算公式為 bx=σ(tx)+cx (1) by=σ(ty)+cy (2) bw=pwetw (3) bh=pheth (4) 式中,(cx,cy)是網(wǎng)格的坐標(biāo)偏移量;(pw,ph)是預(yù)設(shè)的anchor box的邊長;最終得到邊框坐標(biāo)值是(bx,by,bw,bh);網(wǎng)絡(luò)學(xué)習(xí)目標(biāo)是(tx,ty,tw,th)。同時(shí),將用于bounding box分類的Softmax函數(shù)用多個(gè)logistic分類器替代。 YOLOv3采用多尺度融合的方式做預(yù)測,分別融合了13×13、26×26、52×52大小的特征圖;A(chǔ)特征提取網(wǎng)絡(luò)采用作者設(shè)計(jì)的Darknet-53,該網(wǎng)絡(luò)借鑒殘差神經(jīng)網(wǎng)絡(luò)ResNet的residual結(jié)構(gòu),同時(shí)大量使用3×3和1×1結(jié)構(gòu),使得網(wǎng)絡(luò)層數(shù)加深,精度有了明顯提升。 YOLOv3的loss函數(shù)采用均方和誤差的方法整合了坐標(biāo)誤差、置信誤差和分類誤差,其數(shù)學(xué)抽象表達(dá)式為 圖片 (5) 通過引入置信誤差項(xiàng),將網(wǎng)格是否包含目標(biāo)分開討論,很好地解決了坐標(biāo)誤差和分類誤差權(quán)值一致時(shí)訓(xùn)練不穩(wěn)定的問題。 當(dāng)前,基于深度學(xué)習(xí)的目標(biāo)檢測模型大都應(yīng)用于光學(xué)圖像,基本上在公開數(shù)據(jù)集如ImageNet、COCO、VOC做訓(xùn)練測試。 應(yīng)用到的圖像是雷達(dá)回波數(shù)據(jù)在距離多普勒域上的成像。圖像包含了海雜波等背景噪聲,艦船及人工干擾物相比整張圖像所占像素較少,且分布稀疏,因而會對目標(biāo)物檢測帶來影響,為了提高檢測準(zhǔn)確率,往往同時(shí)會增加虛警;距離多普勒圖像中幾類目標(biāo)均沒有明顯的輪廓信息,只是集中分布的一簇亮點(diǎn),特征稀少,相互難以區(qū)分,并且目標(biāo)之間的距離很近,容易形成誤判。雷達(dá)圖像信息量相比光學(xué)圖像嚴(yán)重不足,在成像機(jī)理、目標(biāo)特性、分辨率方面差異顯著,將公開的YOLOv3模型直接應(yīng)用于構(gòu)建的雷達(dá)圖像數(shù)據(jù)集,很難獲得理想的檢測結(jié)果。 2 改進(jìn)YOLOv3結(jié)構(gòu) 2.1 數(shù)據(jù)集構(gòu)建 基于深度學(xué)習(xí)的目標(biāo)檢測技術(shù)對數(shù)據(jù)集具有很強(qiáng)的依賴性,數(shù)據(jù)集是否包含具有代表性的信息對后續(xù)的訓(xùn)練檢測直接起到?jīng)Q定性作用。所用數(shù)據(jù)從科研外場試驗(yàn)中獲得,包含了不同背景條件、目標(biāo)物位置關(guān)系、分辨率、不同距離下的成像,共計(jì)6萬余張,能夠較完備地反映真實(shí)場景。按照訓(xùn)練集、測試集、驗(yàn)證集7∶2∶1的比例劃分成3組,每組圖像均衡包含各種場景條件,最終得到了構(gòu)建的數(shù)據(jù)集。 圖片 圖2 數(shù)據(jù)集部分樣本 Fig.2 Some samples of data set 如圖2,圖片包含的背景噪聲為海雜波,需要識別的3類目標(biāo)為艦船和兩類干擾物。采用標(biāo)簽工具Yolo_mark對數(shù)據(jù)集進(jìn)行標(biāo)注,用Target1、Target2、Target3分別表示艦船、干擾物1、干擾物2,位置信息包括目標(biāo)點(diǎn)的中心坐標(biāo)x,y以及默認(rèn)框的寬高w,h。 2.2 聚類初始化先驗(yàn)框 YOLOv3沿用了YOLOv2采用K-means聚類的方法初始化anchor boxes,有別于Faster R-CNN 和 SSD中采用人工設(shè)定,更加符合本身數(shù)據(jù)的特點(diǎn)。使用距離度量公式為 d(box,centroid)=1-IOU(box,centroid) (6) 式中,centroid 表示聚類(xj,yj,Wi,Hi);box表示真實(shí)框(xj,yj,wj,hj),j∈{1,2,…,N},i∈{1,2,…,k};IOU(box,centroid)表示真實(shí)框和預(yù)測框的交并比。 由于anchor boxes位置不確定,只利用寬和高做計(jì)算。重新計(jì)算公式為 圖片 (7) 圖片 (8) 式中,Ni是第i個(gè)聚類中心的真實(shí)框個(gè)數(shù)。 針對所給數(shù)據(jù)集,原始YOLOv3中9個(gè)anchor boxes對于3類目標(biāo)是合理的,在數(shù)量上不做改變。在該數(shù)據(jù)集上采用K-means得到的anchor boxes為(49,32)(37,61)(83,64)(57,109)(69,128)(73,170)(130,130)(156,111)(89,218),符合圖像扁長的特點(diǎn),驗(yàn)證了K-means方法的有效性。 2.3 改進(jìn)多尺度特征預(yù)測結(jié)構(gòu) 針對雷達(dá)圖像中檢測目標(biāo)尺度小的特點(diǎn),需要進(jìn)一步加強(qiáng)對小目標(biāo)的檢測能力。在基礎(chǔ)特征提取網(wǎng)絡(luò)中,低層大尺度的特征圖具有更高的分辨率,能刻畫更準(zhǔn)確的位置信息,但語義信息較少;高層特征圖包含更豐富的語義信息,但刻畫目標(biāo)點(diǎn)的位置信息較為粗略。因此,越靠前的特征圖對小目標(biāo)的位置刻畫越具代表性,即大尺度的特征圖對應(yīng)小目標(biāo),同時(shí),更多特征圖的融合能進(jìn)一步提高檢測精度。基于這一思想,在縱向上利用了Darknet-53產(chǎn)生104×104、52×52、26×26、13×13大小的特征圖,按照預(yù)測層越往后,利用的特征圖尺寸越大的思路,將預(yù)測層特征圖進(jìn)行上采樣至同樣大小,然后做拼接,再做下一步標(biāo)準(zhǔn)化卷積運(yùn)算。 在橫向的每一層預(yù)測層上,借鑒SPP-Net的思想,采用空間金字塔池化,首先將原始圖像上的候選框映射到經(jīng)過多尺度融合后的特征圖上,映射關(guān)系為 (x,y)=(S*x′,S*y′) (9) 式中,(x,y)表示原始圖像上的坐標(biāo);(x′,y′)表示對應(yīng)特征圖上的坐標(biāo);S表示基礎(chǔ)特征提取網(wǎng)絡(luò)中所有步長的乘積。然后在映射后的區(qū)域利用不同大小的滑動(dòng)窗口特征圖進(jìn)行最大池化。 圖3為改進(jìn)YOLOv3的結(jié)構(gòu)框圖;圖4示例了加入空間金字塔池化的尺度二預(yù)測框圖,在尺度不變的條件下,通過加入空間金字塔池化進(jìn)一步拓寬了特征圖的通道數(shù),因而具有更強(qiáng)的細(xì)節(jié)特征描述能力。 圖片 圖3 改進(jìn)YOLOv3結(jié)構(gòu) Fig.3 Improved YOLOv3 structure 圖片 圖4 改進(jìn)尺度二預(yù)測結(jié)構(gòu) Fig.4 Improved scale 2 prediction structure 2.4 其他細(xì)節(jié) 學(xué)習(xí)率決定了loss下降到最優(yōu)值的速度快慢,如果學(xué)習(xí)率過大,容易出現(xiàn)超調(diào)現(xiàn)象,導(dǎo)致函數(shù)無法收斂,甚至發(fā)散;反之,如果學(xué)習(xí)率過小,可能會導(dǎo)致隨著迭代次數(shù)的增加loss基本不變,致使算法陷入局部最優(yōu)。為保證loss穩(wěn)定收斂,本文采取的策略是初始用小的學(xué)習(xí)率保證loss穩(wěn)定下降,訓(xùn)練至loss基本不動(dòng)的時(shí)候調(diào)大學(xué)習(xí)率進(jìn)一步降低loss,直到loss不再下降為止,此刻,收斂到最優(yōu)值。同時(shí),開啟多尺度訓(xùn)練,提高網(wǎng)絡(luò)的泛化能力;ignore_thresh表示bounding box與ground true的重合度,為降低背景海雜波對目標(biāo)的虛警,提高檢測速度,將ignore_thresh調(diào)至0.7。 3 對比實(shí)驗(yàn)及結(jié)果 本文實(shí)驗(yàn)環(huán)境配置如表1所示。 表1 實(shí)驗(yàn)環(huán)境配置 Table 1 Experimental environment configuration 圖片 3.1 模型的訓(xùn)練 為了能夠在同一標(biāo)準(zhǔn)下對比兩者的實(shí)驗(yàn)結(jié)果,應(yīng)用不同的學(xué)習(xí)率調(diào)整策略使其收斂至各自的最優(yōu)值,loss下降曲線如圖5所示。 圖片 圖5 Loss下降曲線對比 Fig.5 Comparison of the loss decline curve 從圖5可以看出,在該數(shù)據(jù)集上,YOLOv3訓(xùn)練波動(dòng)幅度較大,loss提前收斂,在12 000 batches達(dá)到最優(yōu),loss降至0.28;相比之下,改進(jìn)算法訓(xùn)練更加穩(wěn)定,loss波動(dòng)幅度小,最終在15 000 batches收斂,loss降至0.17。表明了改進(jìn)算法在該數(shù)據(jù)集上具有更強(qiáng)的特征表達(dá)能力。 3.2 模型的測試 算法采用的衡量指標(biāo)為查準(zhǔn)率Precision、查全率Recall、交并比IOU、平均精度均值mAP,單張圖片響應(yīng)時(shí)間T。 部分衡量指標(biāo)計(jì)算公式為 圖片 (10) 圖片 (11) 圖片 (12) 式中,TP表示被判定為正樣本,事實(shí)上也是正樣本;FP表示被判定為正樣本,但事實(shí)上是負(fù)樣本;FN表示被判定為負(fù)樣本,但事實(shí)上是正樣本。 給定閾值Threshold=0.25,對兩組訓(xùn)練結(jié)果進(jìn)行測試,衡量指標(biāo)結(jié)果對比如表2所示。 表2 衡量指標(biāo)結(jié)果對比 Table 2 Comparison of the measure results 圖片 可以看到,改進(jìn)后的算法在前4項(xiàng)指標(biāo)上具有更好的表現(xiàn),尤其在mAP上具有明顯優(yōu)勢,相比原YOLOv3在本數(shù)據(jù)集上提高了6.07%;單張圖片響應(yīng)時(shí)間稍慢于原算法2.36 ms,這是因?yàn)樵陬A(yù)測層進(jìn)一步做了多尺度融合,增加了算法復(fù)雜度,考慮到場景需要,在軍事偵察和目標(biāo)打擊方面,精準(zhǔn)識別目標(biāo)具有更重要的意義,一旦目標(biāo)出現(xiàn)誤判,不管響應(yīng)時(shí)間多快,對后續(xù)任務(wù)實(shí)施沒有任何價(jià)值,因此,犧牲小量的響應(yīng)時(shí)間換取更高的精度是有意義的。 部分測試結(jié)果對比如圖6所示。 圖片 圖6 部分測試結(jié)果對比 Fig.6 Comparison of some test results 如圖6所示,共選取了具有代表性的6組測試結(jié)果,每組中上下圖片分別表示原YOLOv3和改進(jìn)方法。其中,圖6(a)和圖6(f)顯示了改進(jìn)方法具有更好的邊框回歸;圖6(b)~圖6(d) 3組顯示了原YOLOv3在相對位置較遠(yuǎn)時(shí)分別出現(xiàn)了誤判、漏判、虛警現(xiàn)象,改進(jìn)方法很好地解決了這些問題;圖6(e)顯示了在目標(biāo)物相對位置很近時(shí),可以直觀地看到,所提方法依然具有良好表現(xiàn)。 綜合以上實(shí)驗(yàn)結(jié)果,充分說明了所提方法在該數(shù)據(jù)集上的優(yōu)異性能。 3.3 進(jìn)一步實(shí)驗(yàn) 為了體現(xiàn)每一步改進(jìn)對結(jié)果的貢獻(xiàn)值,在上述實(shí)驗(yàn)的基礎(chǔ)上,又進(jìn)行了多組對比實(shí)驗(yàn),分析每一步改進(jìn)的效果并作出解釋。具體實(shí)驗(yàn)內(nèi)容及結(jié)果如表3所示。 表3 進(jìn)一步實(shí)驗(yàn)及結(jié)果 Table 3 Further experiments and results 圖片 其中,步驟1表示重新計(jì)算anchor boxes,步驟2表示預(yù)測層融合多層特征圖,步驟3表示預(yù)測層加入空間金字塔池化。從表3實(shí)驗(yàn)結(jié)果可以看出,針對數(shù)據(jù)集重新計(jì)算錨點(diǎn)使平均準(zhǔn)確率提高了1.45%,速度保持不變,這是由于符合數(shù)據(jù)集的邊框更有助于邊框的回歸,在考慮預(yù)測層結(jié)構(gòu)改進(jìn)時(shí),統(tǒng)一都使用重新計(jì)算的錨點(diǎn);方法2說明了在預(yù)測層融合更多基礎(chǔ)特征提取網(wǎng)絡(luò)產(chǎn)生的特征圖的作用,對小目標(biāo)檢測效果提升是非常明顯的,相比方法1,mAP 提高了1.77%,響應(yīng)時(shí)間T增加了0.68 ms;方法3說明了加入空間金字塔池化對結(jié)果的影響,相比方法1,mAP 提高了2.69%,響應(yīng)時(shí)間T增加了1.79 ms。綜合以上改進(jìn),所提方法相比原YOLOv3 mAP 提高了6.07%,響應(yīng)時(shí)間T增加了2.36 ms。 4 結(jié) 論 將基于深度學(xué)習(xí)的檢測方法應(yīng)用到雷達(dá)圖像上是目前雷達(dá)目標(biāo)檢測領(lǐng)域研究的熱點(diǎn)方向,嘗試將最新的YOLOv3檢測框架應(yīng)用進(jìn)來,構(gòu)建了距離多普勒域雷達(dá)圖像數(shù)據(jù)集,改進(jìn)了YOLOv3預(yù)測層結(jié)構(gòu),融合多尺度特征圖,增加了空間金字塔池化。通過一系列對比實(shí)驗(yàn),所提方法相比原YOLOv3在該數(shù)據(jù)集上平均檢測精度提高了6.07%。 同時(shí),改進(jìn)也有其局限,網(wǎng)絡(luò)的加深使得訓(xùn)練和檢測速度變慢,訓(xùn)練得到的權(quán)重文件達(dá)到了246 MB,對于目前的硬件設(shè)備,距搭載在飛行器上應(yīng)用還有一段距離,下一步工作將圍繞網(wǎng)絡(luò)的輕量化應(yīng)用開展研究,在滿足工程應(yīng)用的基礎(chǔ)上,權(quán)衡檢測精度和速度對結(jié)果的影響,找到最優(yōu)的解決方案。 圖片 |
| 1 | 1/1 | 返回列表 |
| 最具人氣熱帖推薦 [查看全部] | 作者 | 回/看 | 最后發(fā)表 | |
|---|---|---|---|---|
|
[考研] 求調(diào)劑推薦 +3 | 微辣不吃 2026-03-06 | 3/150 |
|
|---|---|---|---|---|
|
[考研] 085701環(huán)境工程295求調(diào)劑,一志愿A區(qū)211 +6 | 等春來, 2026-03-06 | 7/350 |
|
|
[考研] 324求調(diào)劑 +5 | wxz2 2026-03-03 | 8/400 |
|
|
[考博] 2026年博士名額撿漏 +4 | 科研ya 2026-03-04 | 7/350 |
|
|
[考研] 274求調(diào)劑 +6 | cgyzqwn 2026-03-01 | 13/650 |
|
|
[考研] 287求調(diào)劑 +3 | 看看我. 2026-03-05 | 6/300 |
|
|
[考研] 求調(diào)劑 +3 | 泡了個(gè)椒 2026-03-04 | 4/200 |
|
|
[考研] 304求調(diào)劑 +3 | 曼殊2266 2026-03-04 | 3/150 |
|
|
[考研] 286 +6 | ksncj 2026-03-04 | 6/300 |
|
|
[考研] 266求調(diào)劑 +7 | 哇塞王帥 2026-03-03 | 7/350 |
|
|
[考研] 一志愿314求調(diào)劑 +7 | 202111120625 2026-03-03 | 7/350 |
|
|
[考研] 281求調(diào)劑 +3 | 我是小小蔥蔥 2026-03-03 | 5/250 |
|
|
[考研] 299求調(diào)劑 +5 | kkcoco25 2026-03-02 | 9/450 |
|
|
[考研]
材料工程專碩283求調(diào)劑
5+8
|
,? 2026-03-02 | 10/500 |
|
|
[考研] 調(diào)劑 +5 | 13853210211 2026-03-02 | 7/350 |
|
|
[論文投稿]
通訊作者寫誰,問題是你意想不到的問題
15+3
|
阿爾法啊 2026-03-01 | 3/150 |
|
|
[考研] 298求調(diào)劑 +7 | axyz3 2026-02-28 | 8/400 |
|
|
[考研] 【2026 碩士調(diào)劑】課題組 招收調(diào)劑生 +3 | 考研版棒棒 2026-03-02 | 5/250 |
|
|
[考研] 材料284求調(diào)劑,一志愿鄭州大學(xué)英一數(shù)二專碩 +15 | 想上岸的土撥鼠 2026-02-28 | 15/750 |
|
|
[考研] 材料調(diào)劑 +6 | 愛擦汗的可樂冰 2026-02-28 | 7/350 |
|