强奸久久久久久久|草草浮力在线影院|手机成人无码av|亚洲精品狼友视频|国产国模精品一区|久久成人中文字幕|超碰在线视屏免费|玖玖欧洲一区二区|欧美精品无码一区|日韩无遮一区二区

首頁 > 廠商 > 問答 > 目標(biāo)檢測(cè)算法,運(yùn)動(dòng)目標(biāo)檢測(cè) 高斯混合模型 matlab

目標(biāo)檢測(cè)算法,運(yùn)動(dòng)目標(biāo)檢測(cè) 高斯混合模型 matlab

來源:整理 時(shí)間:2023-08-23 17:05:50 編輯:智能門戶 手機(jī)版

本文目錄一覽

1,運(yùn)動(dòng)目標(biāo)檢測(cè) 高斯混合模型 matlab

應(yīng)該可以,先得到幀,再存為avi文件??砂殉绦蚣皥D像發(fā)過來看看。

運(yùn)動(dòng)目標(biāo)檢測(cè) 高斯混合模型 matlab

2,yolo算法是什么

yolo算法是一種目標(biāo)檢測(cè)算法。目標(biāo)檢測(cè)任務(wù)的目標(biāo)是找到圖像中的所有感興趣區(qū)域,并確定這些區(qū)域的位置和類別概率。目標(biāo)檢測(cè)領(lǐng)域的深度學(xué)習(xí)方法主要分為兩大類兩階段式(Two-stage)目標(biāo)檢測(cè)算法和單階段式(One-stage)目標(biāo)檢測(cè)算法。兩階段式是先由算法生成一系列候選邊界框作為樣本,然后再通過卷積神經(jīng)網(wǎng)絡(luò)分類這些樣本。yolo算法原理因?yàn)樗捎蒙顚泳矸e神經(jīng)網(wǎng)絡(luò),吸收了當(dāng)前很多經(jīng)典卷積神經(jīng)網(wǎng)絡(luò)架構(gòu)的優(yōu)秀思想,在位置檢測(cè)和對(duì)象的識(shí)別方面,性能達(dá)到最優(yōu)(準(zhǔn)確率非常高的情況下還能達(dá)到實(shí)時(shí)檢測(cè))。因?yàn)樽髡哌€將代碼開源了。真心為作者這種大公無私的心胸點(diǎn)贊。美中不足的是雖然將代碼開源,但是在論文介紹架構(gòu)原理的時(shí)候比較模糊,特別是對(duì)一些重要改進(jìn),基本上是一筆帶過?,F(xiàn)在在網(wǎng)絡(luò)上有很多關(guān)于YOLO原理的講解。

yolo算法是什么

3,計(jì)算機(jī)視覺中目前有哪些經(jīng)典的目標(biāo)跟蹤算法

運(yùn)動(dòng)目標(biāo)檢測(cè)算法有很多,主要包括背景差分法、幀間差分法和光流法等。
有基于壓縮感知的ct,fct,也有基于背景的stc,最經(jīng)典的就是tld等等

計(jì)算機(jī)視覺中目前有哪些經(jīng)典的目標(biāo)跟蹤算法

4,目標(biāo)檢測(cè)算法faster rcnn 知識(shí)簡(jiǎn)要回顧測(cè)試篇

Faster RCNN檢測(cè)部分主要可以分為四個(gè)模塊: 1.特征抽?。河糜诔槿D像特征,一般可以使用vgg、resnet和mobilenet等backbone; 2.RPN(Region Proposal Network):用于產(chǎn)生候選框,主要做一些粗糙的分類和回歸操作; 3.RoI Pooling:主要是為了解決全連接層需要固定尺寸輸入,而實(shí)際輸入大小不一的問題; 4.Classification and Regression:精細(xì)化分類和回歸。 faster rcnn算法大致流程如下: 彩色圖像通過backbone進(jìn)行特征提取,輸出最后一層的feature map。接著將這些feature map進(jìn)一步做基于3x3卷積核的特征提取,該目的是增強(qiáng)模型的魯棒性。將輸出送入兩個(gè)分支,第一個(gè)分支跟類別有關(guān),這里主要是用于簡(jiǎn)單分類,區(qū)分是背景還是物體,這是針對(duì)anchor而言的;第二個(gè)分支則是用于初步預(yù)測(cè)候選框的偏移量,這個(gè)也是基于anchor而言的;再將前兩個(gè)分支的結(jié)果送入圖中的proposal中,首先會(huì)根據(jù)positive類的score篩選前6000個(gè)候選框,再將anchor的坐標(biāo)和得到的偏移進(jìn)行整合,得到初步候選框坐標(biāo),接著在做NMS,除去重疊嚴(yán)重的框,再經(jīng)過了NMS后的框中,根據(jù)類別score取前300個(gè)框。然后將結(jié)果送入roi pooing層,用于生成固定尺寸的特征區(qū)域,以方便后邊的全連接層接受信息;全連接層用于最后提取特征,得到精細(xì)的類別和框的偏移量。

5,運(yùn)動(dòng)目標(biāo)檢測(cè)的檢測(cè)方法

基于統(tǒng)計(jì)背景模型的運(yùn)動(dòng)目標(biāo)檢測(cè)方法問題:(1) 背景獲?。盒枰趫?chǎng)景存在運(yùn)動(dòng)目標(biāo)的情況下獲得背景圖像(2) 背景擾動(dòng):背景中可以含有輕微擾動(dòng)的對(duì)象,如樹枝、樹葉的搖動(dòng),擾動(dòng)部分不應(yīng)該被看做是前景運(yùn)動(dòng)目標(biāo)(3) 外界光照變化:一天中不同時(shí)間段光線、天氣等的變化對(duì)檢測(cè)結(jié)果的影響(4) 背景中固定對(duì)象的移動(dòng):背景里的固定對(duì)象可能移動(dòng),如場(chǎng)景中的一輛車開走、一把椅子移走,對(duì)象移走后的區(qū)域在一段時(shí)間內(nèi)可能被誤認(rèn)為是運(yùn)動(dòng)目標(biāo),但不應(yīng)該永遠(yuǎn)被看做是前景運(yùn)動(dòng)目標(biāo)(5) 背景的更新:背景中固定對(duì)象的移動(dòng)和外界光照條件的變化會(huì)使背景圖像發(fā)生變化,需要及時(shí)對(duì)背景模型進(jìn)行更新,以適應(yīng)這種變化(6) 陰影的影響:通常前景目標(biāo)的陰影也被檢測(cè)為運(yùn)動(dòng)目標(biāo)的一部分,這樣將影響對(duì)運(yùn)動(dòng)目標(biāo)的進(jìn)一步處理和分析

6,目標(biāo)檢測(cè)算法的分步介紹第 1 部分

英文原文: https://www.analyticsvidhya.com/blog/2018/10/a-step-by-step-introduction-to-the-basic-object-detection-algorithms-part-1/ 對(duì)原文的表達(dá)有部分改動(dòng) 在本文中,我們將更深入地研究可用于目標(biāo)檢測(cè)的各種算法。我們將從 RCNN 家族的算法開始,即 RCNN、Fast RCNN 和 Faster RCNN。在本系列即將發(fā)布的文章中,我們將介紹更高級(jí)的算法,如 YOLO、SSD 等。 下圖是說明目標(biāo)檢測(cè)算法如何工作的一個(gè)流行示例。圖像中的每個(gè)物體,從一個(gè)人到一只風(fēng)箏,都以一定的精度被定位和識(shí)別。 讓我們從最簡(jiǎn)單的深度學(xué)習(xí)方法開始,也是一種廣泛使用的方法,用于檢測(cè)圖像中的目標(biāo)——卷積神經(jīng)網(wǎng)絡(luò)( CNN)。CNN 的內(nèi)部工作原理如下: 我們將圖像傳遞給網(wǎng)絡(luò),然后通過各種卷積和池化層處理,發(fā)送給全連接層。最后,我們以目標(biāo)類別的形式獲得輸出。這相當(dāng)簡(jiǎn)單,不是嗎?對(duì)于每個(gè)輸入圖像,我們得到一個(gè)相應(yīng)的類作為輸出。我們可以使用這種技術(shù)來檢測(cè)圖像中的各種目標(biāo)嗎?讓我們看看如何使用 CNN 解決一般的目標(biāo)檢測(cè)問題。 使用這種方法的問題在于圖像中的目標(biāo)可能具有不同的縱橫比和空間位置。例如,在某些情況下,目標(biāo)可能覆蓋圖像的大部分,而在某些情況下,目標(biāo)可能僅覆蓋圖像的一小部分。目標(biāo)的形狀也可能不同(在現(xiàn)實(shí)生活中經(jīng)常發(fā)生)。由于這些因素,我們將需要大量的區(qū)域,從而導(dǎo)致大量的計(jì)算時(shí)間。因此,為了解決這個(gè)問題并減少區(qū)域數(shù)量,我們可以使用基于區(qū)域的 CNN,它使用提案法選擇區(qū)域。讓我們了解這個(gè)基于區(qū)域的 CNN 可以為我們做什么。 與在大量區(qū)域上工作不同的是,RCNN 算法是在圖像中選取一堆框并檢查這些框中是否有任何一個(gè)包含任何目標(biāo)。 RCNN 使用 selective search 從圖像中提取這些框(這些框稱為 regions)。 讓我們首先了解什么是 selective search 以及它如何識(shí)別不同的 regions?;旧纤膫€(gè)模式可以構(gòu)成一個(gè)物體:不同的尺度、顏色、紋理和外殼。selective search 識(shí)別圖像中的這些模式,并在此基礎(chǔ)上提出各種regions。以下是selective search 工作原理的簡(jiǎn)要概述: 舉個(gè)例子: 到目前為止,我們已經(jīng)看到了 RCNN 如何實(shí)現(xiàn)目標(biāo)檢測(cè)。但是這種技術(shù)有其自身的局限性。由于以下步驟,訓(xùn)練 RCNN 模型既昂貴又緩慢: 所有這些過程結(jié)合起來使 RCNN 非常慢。對(duì)每張新圖像進(jìn)行預(yù)測(cè)大約需要 40-50 秒,這實(shí)質(zhì)上使得模型在面對(duì)龐大的數(shù)據(jù)集時(shí)變得笨重且?guī)缀鯚o法構(gòu)建。 好消息是——我們有另一種目標(biāo)檢測(cè)技術(shù),它修復(fù)了我們?cè)?RCNN 中看到的大部分問題。 我們還能做些什么來減少 RCNN 算法通常需要的計(jì)算時(shí)間?我們是否可以每張圖像只運(yùn)行一次并獲取所有感興趣的區(qū)域(包含某個(gè)目標(biāo)的區(qū)域)。 RCNN 的作者 Ross Girshick 提出了這個(gè)想法,即每張圖像只運(yùn)行一次 CNN,然后找到一種方法在 2,000 個(gè)區(qū)域之間共享該計(jì)算。在 Fast RCNN 中,我們將輸入圖像提供給 CNN,后者反過來生成卷積特征圖。使用這些地圖,提取提議的區(qū)域。然后我們使用 RoI 池化層將所有提議的區(qū)域重塑為固定大小,以便可以將其饋入全連接網(wǎng)絡(luò)。 讓我們將其分解為簡(jiǎn)化概念的步驟: 因此,F(xiàn)ast RCNN 不是使用三個(gè)不同的模型(如 RCNN),而是使用單個(gè)模型從區(qū)域中提取特征,將它們分成不同的類,并同時(shí)返回識(shí)別類的邊界框。 為了進(jìn)一步分解,我將對(duì)每個(gè)步驟進(jìn)行可視化。 這就是 Fast RCNN 如何解決 RCNN 的兩個(gè)主要問題,1. 將每個(gè)圖像的一個(gè)而不是 2,000 個(gè)區(qū)域傳遞給 ConvNet。2. 使用一個(gè)而不是三個(gè)不同的模型來提取特征、分類和生成邊界框。 但即使是 Fast RCNN 也存在某些問題。它還使用 selective search 作為尋找感興趣區(qū)域的建議方法,這是一個(gè)緩慢且耗時(shí)的過程。每張圖像檢測(cè)目標(biāo)大約需要 2 秒,這與 RCNN 相比要好得多。但是當(dāng)我們考慮大型現(xiàn)實(shí)生活數(shù)據(jù)集時(shí),即使是 Fast RCNN 看起來也不那么快了。 Faster RCNN 是 Fast RCNN 的修改版本。它們之間的主要區(qū)別在于 Fast RCNN 使用 selective search 來生成感興趣的區(qū)域,而 Faster RCNN 使用 Region Proposal Network ,又名 RPN。 RPN 將圖像特征圖作為輸入并生成一組目標(biāo)提議,每個(gè)提議的目標(biāo)以分?jǐn)?shù)作為輸出。 Faster RCNN 方法通常遵循以下步驟: 讓我簡(jiǎn)要解釋一下這個(gè)區(qū)域提議網(wǎng)絡(luò)(RPN)實(shí)際上是如何工作的。 首先,F(xiàn)aster RCNN 從 CNN 獲取特征圖并將它們傳遞給區(qū)域提議網(wǎng)絡(luò)。 RPN 在這些特征圖上使用一個(gè)滑動(dòng)窗口,在每個(gè)窗口,它生成 k 個(gè)不同形狀和大小的 Anchor 框: Anchor 框是固定大小的邊界框,它們放置在整個(gè)圖像中,具有不同的形狀和大小。對(duì)于每個(gè) Anchor,RPN 預(yù)測(cè)兩件事: 我們現(xiàn)在有不同形狀和大小的邊界框,它們被傳遞到 RoI 池化層。在 RPN 步驟之后,有可能存在沒有分配給它們的類別提議。我們可以獲取每個(gè)建議并對(duì)其進(jìn)行裁剪,以便每個(gè)建議都包含一個(gè)目標(biāo)。這就是 RoI 池化層所做的。它為每個(gè)錨點(diǎn)提取固定大小的特征圖: 然后將這些特征圖傳遞到具有 softmax 和線性回歸層的全連接層。它最終對(duì)目標(biāo)進(jìn)行分類并預(yù)測(cè)已識(shí)別目標(biāo)的邊界框。 到目前為止,我們討論的所有目標(biāo)檢測(cè)算法都使用區(qū)域來識(shí)別目標(biāo)。網(wǎng)絡(luò)不會(huì)一次性查看完整圖像,而是依次關(guān)注圖像的各個(gè)部分。這會(huì)造成兩個(gè)并發(fā)癥:

7,智能視頻監(jiān)控的目標(biāo)檢測(cè)

視覺監(jiān)控的主要目的,是從一組包含人的圖像序列中檢測(cè)、識(shí)別、跟蹤人體,并對(duì)其行為進(jìn)行理解和描述。大體上這個(gè)過程可分為底層視覺模塊(low-levelvision)、數(shù)據(jù)融合模塊(intermediate-level vision)和高層視覺模塊(high-levelvision)。其中,底層視覺模塊主要包括運(yùn)動(dòng)檢測(cè)、目標(biāo)跟蹤等運(yùn)動(dòng)分析方法;數(shù)據(jù)融合模塊主要解決多攝像機(jī)數(shù)據(jù)進(jìn)行融合處理問題;高層視覺模塊主要包括目標(biāo)的識(shí)別,以及有關(guān)于運(yùn)動(dòng)信息的語義理解與描述等。如何使系統(tǒng)自適應(yīng)于環(huán)境,是場(chǎng)景建模以及更新的核心問題。有了場(chǎng)景模型,就可以進(jìn)行運(yùn)動(dòng)檢測(cè),然后對(duì)檢測(cè)到的運(yùn)動(dòng)區(qū)域進(jìn)行目標(biāo)分類與跟蹤。接下來是多攝像機(jī)數(shù)據(jù)融合問題。最后一步是事件檢測(cè)和事件理解與描述。通過對(duì)前面處理得到的人體運(yùn)動(dòng)信息進(jìn)行分析及理解,最終給出我們需要的語義數(shù)據(jù)。下面對(duì)其基本處理過程做進(jìn)一步的說明。 序列圖像包含大量信息,要保證目標(biāo)跟蹤的實(shí)時(shí)性要求,必須選擇計(jì)算量小的算法。魯棒性是目標(biāo)跟蹤的另一個(gè)重要性能,提高算法的魯棒性就是要使算法對(duì)復(fù)雜背景、光照變化和遮擋等情況有較強(qiáng)的適應(yīng)性,而這又要以復(fù)雜的運(yùn)算為代價(jià)。

8,目標(biāo)檢測(cè)算法RCNNfast RCNNfaster RCNNyoloSSDyoloV2yoloV3

深度學(xué)習(xí)目前已經(jīng)應(yīng)用到了各個(gè)領(lǐng)域,應(yīng)用場(chǎng)景大體分為三類:物體識(shí)別,目標(biāo)檢測(cè),自然語言處理。 目標(biāo)檢測(cè)可以理解為是物體識(shí)別和物體定位的綜合 ,不僅僅要識(shí)別出物體屬于哪個(gè)分類,更重要的是得到物體在圖片中的具體位置。 2014年R-CNN算法被提出,基本奠定了two-stage方式在目標(biāo)檢測(cè)領(lǐng)域的應(yīng)用。它的算法結(jié)構(gòu)如下圖 算法步驟如下: R-CNN較傳統(tǒng)的目標(biāo)檢測(cè)算法獲得了50%的性能提升,在使用VGG-16模型作為物體識(shí)別模型情況下,在voc2007數(shù)據(jù)集上可以取得66%的準(zhǔn)確率,已經(jīng)算還不錯(cuò)的一個(gè)成績(jī)了。其最大的問題是速度很慢,內(nèi)存占用量很大,主要原因有兩個(gè) 針對(duì)R-CNN的部分問題,2015年微軟提出了Fast R-CNN算法,它主要優(yōu)化了兩個(gè)問題。 R-CNN和fast R-CNN均存在一個(gè)問題,那就是 由選擇性搜索來生成候選框,這個(gè)算法很慢 。而且R-CNN中生成的2000個(gè)左右的候選框全部需要經(jīng)過一次卷積神經(jīng)網(wǎng)絡(luò),也就是需要經(jīng)過2000次左右的CNN網(wǎng)絡(luò),這個(gè)是十分耗時(shí)的(fast R-CNN已經(jīng)做了改進(jìn),只需要對(duì)整圖經(jīng)過一次CNN網(wǎng)絡(luò))。這也是導(dǎo)致這兩個(gè)算法檢測(cè)速度較慢的最主要原因。 faster R-CNN 針對(duì)這個(gè)問題, 提出了RPN網(wǎng)絡(luò)來進(jìn)行候選框的獲取,從而擺脫了選擇性搜索算法,也只需要一次卷積層操作,從而大大提高了識(shí)別速度 。這個(gè)算法十分復(fù)雜,我們會(huì)詳細(xì)分析。它的基本結(jié)構(gòu)如下圖 主要分為四個(gè)步驟: 使用VGG-16卷積模型的網(wǎng)絡(luò)結(jié)構(gòu): 卷積層采用的VGG-16模型,先將PxQ的原始圖片,縮放裁剪為MxN的圖片,然后經(jīng)過13個(gè)conv-relu層,其中會(huì)穿插4個(gè)max-pooling層。所有的卷積的kernel都是3x3的,padding為1,stride為1。pooling層kernel為2x2, padding為0,stride為2。 MxN的圖片,經(jīng)過卷積層后,變?yōu)榱?M/16) x (N/16)的feature map了。 faster R-CNN拋棄了R-CNN中的選擇性搜索(selective search)方法,使用RPN層來生成候選框,能極大的提升候選框的生成速度。RPN層先經(jīng)過3x3的卷積運(yùn)算,然后分為兩路。一路用來判斷候選框是前景還是背景,它先reshape成一維向量,然后softmax來判斷是前景還是背景,然后reshape恢復(fù)為二維feature map。另一路用來確定候選框的位置,通過bounding box regression實(shí)現(xiàn),后面再詳細(xì)講。兩路計(jì)算結(jié)束后,挑選出前景候選框(因?yàn)槲矬w在前景中),并利用計(jì)算得到的候選框位置,得到我們感興趣的特征子圖proposal。 卷積層提取原始圖像信息,得到了256個(gè)feature map,經(jīng)過RPN層的3x3卷積后,仍然為256個(gè)feature map。但是每個(gè)點(diǎn)融合了周圍3x3的空間信息。對(duì)每個(gè)feature map上的一個(gè)點(diǎn),生成k個(gè)anchor(k默認(rèn)為9)。anchor分為前景和背景兩類(我們先不去管它具體是飛機(jī)還是汽車,只用區(qū)分它是前景還是背景即可)。anchor有[x,y,w,h]四個(gè)坐標(biāo)偏移量,x,y表示中心點(diǎn)坐標(biāo),w和h表示寬度和高度。這樣,對(duì)于feature map上的每個(gè)點(diǎn),就得到了k個(gè)大小形狀各不相同的選區(qū)region。 對(duì)于生成的anchors,我們首先要判斷它是前景還是背景。由于感興趣的物體位于前景中,故經(jīng)過這一步之后,我們就可以舍棄背景anchors了。大部分的anchors都是屬于背景,故這一步可以篩選掉很多無用的anchor,從而減少全連接層的計(jì)算量。 對(duì)于經(jīng)過了3x3的卷積后得到的256個(gè)feature map,先經(jīng)過1x1的卷積,變換為18個(gè)feature map。然后reshape為一維向量,經(jīng)過softmax判斷是前景還是背景。此處reshape的唯一作用就是讓數(shù)據(jù)可以進(jìn)行softmax計(jì)算。然后輸出識(shí)別得到的前景anchors。 另一路用來確定候選框的位置,也就是anchors的[x,y,w,h]坐標(biāo)值。如下圖所示,紅色代表我們當(dāng)前的選區(qū),綠色代表真實(shí)的選區(qū)。雖然我們當(dāng)前的選取能夠大概框選出飛機(jī),但離綠色的真實(shí)位置和形狀還是有很大差別,故需要對(duì)生成的anchors進(jìn)行調(diào)整。這個(gè)過程我們稱為bounding box regression。 假設(shè)紅色框的坐標(biāo)為[x,y,w,h], 綠色框,也就是目標(biāo)框的坐標(biāo)為[Gx, Gy,Gw,Gh], 我們要建立一個(gè)變換,使得[x,y,w,h]能夠變?yōu)閇Gx, Gy,Gw,Gh]。最簡(jiǎn)單的思路是,先做平移,使得中心點(diǎn)接近,然后進(jìn)行縮放,使得w和h接近。如下:我們要學(xué)習(xí)的就是dx dy dw dh這四個(gè)變換。由于是線性變換,我們可以用線性回歸來建模。設(shè)定loss和優(yōu)化方法后,就可以利用深度學(xué)習(xí)進(jìn)行訓(xùn)練,并得到模型了。對(duì)于空間位置loss,我們一般采用均方差算法,而不是交叉熵(交叉熵使用在分類預(yù)測(cè)中)。優(yōu)化方法可以采用自適應(yīng)梯度下降算法Adam。 得到了前景anchors,并確定了他們的位置和形狀后,我們就可以輸出前景的特征子圖proposal了。步驟如下: 1,得到前景anchors和他們的[x y w h]坐標(biāo)。 2,按照anchors為前景的不同概率,從大到小排序,選取前pre_nms_topN個(gè)anchors,比如前6000個(gè) 3,剔除非常小的anchors。 4,通過NMS非極大值抑制,從anchors中找出置信度較高的。這個(gè)主要是為了解決選取交疊問題。首先計(jì)算每一個(gè)選區(qū)面積,然后根據(jù)他們?cè)趕oftmax中的score(也就是是否為前景的概率)進(jìn)行排序,將score最大的選區(qū)放入隊(duì)列中。接下來,計(jì)算其余選區(qū)與當(dāng)前最大score選區(qū)的IOU(IOU為兩box交集面積除以兩box并集面積,它衡量了兩個(gè)box之間重疊程度)。去除IOU大于設(shè)定閾值的選區(qū)。這樣就解決了選區(qū)重疊問題。 5,選取前post_nms_topN個(gè)結(jié)果作為最終選區(qū)proposal進(jìn)行輸出,比如300個(gè)。 經(jīng)過這一步之后,物體定位應(yīng)該就基本結(jié)束了,剩下的就是物體識(shí)別了。 和fast R-CNN中類似,這一層主要解決之前得到的proposal大小形狀各不相同,導(dǎo)致沒法做全連接。全連接計(jì)算只能對(duì)確定的shape進(jìn)行運(yùn)算,故必須使proposal大小形狀變?yōu)橄嗤?。通過裁剪和縮放的手段,可以解決這個(gè)問題,但會(huì)帶來信息丟失和圖片形變問題。我們使用ROI pooling可以有效的解決這個(gè)問題。 ROI pooling中,如果目標(biāo)輸出為MxN,則在水平和豎直方向上,將輸入proposal劃分為MxN份,每一份取最大值,從而得到MxN的輸出特征圖。 ROI Pooling層后的特征圖,通過全連接層與softmax,就可以計(jì)算屬于哪個(gè)具體類別,比如人,狗,飛機(jī),并可以得到cls_prob概率向量。同時(shí)再次利用bounding box regression精細(xì)調(diào)整proposal位置,得到bbox_pred,用于回歸更加精確的目標(biāo)檢測(cè)框。 這樣就完成了faster R-CNN的整個(gè)過程了。算法還是相當(dāng)復(fù)雜的,對(duì)于每個(gè)細(xì)節(jié)需要反復(fù)理解。faster R-CNN使用resNet101模型作為卷積層,在voc2012數(shù)據(jù)集上可以達(dá)到83.8%的準(zhǔn)確率,超過yolo ssd和yoloV2。其最大的問題是速度偏慢,每秒只能處理5幀,達(dá)不到實(shí)時(shí)性要求。 針對(duì)于two-stage目標(biāo)檢測(cè)算法普遍存在的運(yùn)算速度慢的缺點(diǎn), yolo創(chuàng)造性的提出了one-stage。也就是將物體分類和物體定位在一個(gè)步驟中完成。 yolo直接在輸出層回歸bounding box的位置和bounding box所屬類別,從而實(shí)現(xiàn)one-stage。通過這種方式, yolo可實(shí)現(xiàn)45幀每秒的運(yùn)算速度,完全能滿足實(shí)時(shí)性要求 (達(dá)到24幀每秒,人眼就認(rèn)為是連續(xù)的)。它的網(wǎng)絡(luò)結(jié)構(gòu)如下圖: 主要分為三個(gè)部分:卷積層,目標(biāo)檢測(cè)層,NMS篩選層。 采用Google inceptionV1網(wǎng)絡(luò),對(duì)應(yīng)到上圖中的第一個(gè)階段,共20層。這一層主要是進(jìn)行特征提取,從而提高模型泛化能力。但作者對(duì)inceptionV1進(jìn)行了改造,他沒有使用inception module結(jié)構(gòu),而是用一個(gè)1x1的卷積,并聯(lián)一個(gè)3x3的卷積來替代。(可以認(rèn)為只使用了inception module中的一個(gè)分支,應(yīng)該是為了簡(jiǎn)化網(wǎng)絡(luò)結(jié)構(gòu)) 先經(jīng)過4個(gè)卷積層和2個(gè)全連接層,最后生成7x7x30的輸出。先經(jīng)過4個(gè)卷積層的目的是為了提高模型泛化能力。yolo將一副448x448的原圖分割成了7x7個(gè)網(wǎng)格,每個(gè)網(wǎng)格要預(yù)測(cè)兩個(gè)bounding box的坐標(biāo)(x,y,w,h)和box內(nèi)包含物體的置信度confidence,以及物體屬于20類別中每一類的概率(yolo的訓(xùn)練數(shù)據(jù)為voc2012,它是一個(gè)20分類的數(shù)據(jù)集)。所以一個(gè)網(wǎng)格對(duì)應(yīng)的參數(shù)為(4x2+2+20) = 30。如下圖 其中前一項(xiàng)表示有無人工標(biāo)記的物體落入了網(wǎng)格內(nèi),如果有則為1,否則為0。第二項(xiàng)代表bounding box和真實(shí)標(biāo)記的box之間的重合度。它等于兩個(gè)box面積交集,除以面積并集。值越大則box越接近真實(shí)位置。 分類信息: yolo的目標(biāo)訓(xùn)練集為voc2012,它是一個(gè)20分類的目標(biāo)檢測(cè)數(shù)據(jù)集 。常用目標(biāo)檢測(cè)數(shù)據(jù)集如下表: | Name | # Images (trainval) | # Classes | Last updated | | --------------- | ------------------- | --------- | ------------ | | ImageNet | 450k | 200 | 2015 | | COCO | 120K | 90 | 2014 | | Pascal VOC | 12k | 20 | 2012 | | Oxford-IIIT Pet | 7K | 37 | 2012 | | KITTI Vision | 7K | 3 | | 每個(gè)網(wǎng)格還需要預(yù)測(cè)它屬于20分類中每一個(gè)類別的概率。分類信息是針對(duì)每個(gè)網(wǎng)格的,而不是bounding box。故只需要20個(gè),而不是40個(gè)。而confidence則是針對(duì)bounding box的,它只表示box內(nèi)是否有物體,而不需要預(yù)測(cè)物體是20分類中的哪一個(gè),故只需要2個(gè)參數(shù)。雖然分類信息和confidence都是概率,但表達(dá)含義完全不同。 篩選層是為了在多個(gè)結(jié)果中(多個(gè)bounding box)篩選出最合適的幾個(gè),這個(gè)方法和faster R-CNN 中基本相同。都是先過濾掉score低于閾值的box,對(duì)剩下的box進(jìn)行NMS非極大值抑制,去除掉重疊度比較高的box(NMS具體算法可以回顧上面faster R-CNN小節(jié))。這樣就得到了最終的最合適的幾個(gè)box和他們的類別。 yolo的損失函數(shù)包含三部分,位置誤差,confidence誤差,分類誤差。具體公式如下: 誤差均采用了均方差算法,其實(shí)我認(rèn)為,位置誤差應(yīng)該采用均方差算法,而分類誤差應(yīng)該采用交叉熵。由于物體位置只有4個(gè)參數(shù),而類別有20個(gè)參數(shù),他們的累加和不同。如果賦予相同的權(quán)重,顯然不合理。故yolo中位置誤差權(quán)重為5,類別誤差權(quán)重為1。由于我們不是特別關(guān)心不包含物體的bounding box,故賦予不包含物體的box的置信度confidence誤差的權(quán)重為0.5,包含物體的權(quán)重則為1。 Faster R-CNN準(zhǔn)確率mAP較高,漏檢率recall較低,但速度較慢。而yolo則相反,速度快,但準(zhǔn)確率和漏檢率不盡人意。SSD綜合了他們的優(yōu)缺點(diǎn),對(duì)輸入300x300的圖像,在voc2007數(shù)據(jù)集上test,能夠達(dá)到58 幀每秒( Titan X 的 GPU ),72.1%的mAP。 SSD網(wǎng)絡(luò)結(jié)構(gòu)如下圖: 和yolo一樣,也分為三部分:卷積層,目標(biāo)檢測(cè)層和NMS篩選層 SSD論文采用了VGG16的基礎(chǔ)網(wǎng)絡(luò),其實(shí)這也是幾乎所有目標(biāo)檢測(cè)神經(jīng)網(wǎng)絡(luò)的慣用方法。先用一個(gè)CNN網(wǎng)絡(luò)來提取特征,然后再進(jìn)行后續(xù)的目標(biāo)定位和目標(biāo)分類識(shí)別。 這一層由5個(gè)卷積層和一個(gè)平均池化層組成。去掉了最后的全連接層。SSD認(rèn)為目標(biāo)檢測(cè)中的物體,只與周圍信息相關(guān),它的感受野不是全局的,故沒必要也不應(yīng)該做全連接。SSD的特點(diǎn)如下。 每一個(gè)卷積層,都會(huì)輸出不同大小感受野的feature map。在這些不同尺度的feature map上,進(jìn)行目標(biāo)位置和類別的訓(xùn)練和預(yù)測(cè),從而達(dá)到 多尺度檢測(cè) 的目的,可以克服yolo對(duì)于寬高比不常見的物體,識(shí)別準(zhǔn)確率較低的問題。而yolo中,只在最后一個(gè)卷積層上做目標(biāo)位置和類別的訓(xùn)練和預(yù)測(cè)。這是SSD相對(duì)于yolo能提高準(zhǔn)確率的一個(gè)關(guān)鍵所在。 如上所示,在每個(gè)卷積層上都會(huì)進(jìn)行目標(biāo)檢測(cè)和分類,最后由NMS進(jìn)行篩選,輸出最終的結(jié)果。多尺度feature map上做目標(biāo)檢測(cè),就相當(dāng)于多了很多寬高比例的bounding box,可以大大提高泛化能力。 和faster R-CNN相似,SSD也提出了anchor的概念。卷積輸出的feature map,每個(gè)點(diǎn)對(duì)應(yīng)為原圖的一個(gè)區(qū)域的中心點(diǎn)。以這個(gè)點(diǎn)為中心,構(gòu)造出6個(gè)寬高比例不同,大小不同的anchor(SSD中稱為default box)。每個(gè)anchor對(duì)應(yīng)4個(gè)位置參數(shù)(x,y,w,h)和21個(gè)類別概率(voc訓(xùn)練集為20分類問題,在加上anchor是否為背景,共21分類)。如下圖所示: 另外,在訓(xùn)練階段,SSD將正負(fù)樣本比例定位1:3。訓(xùn)練集給定了輸入圖像以及每個(gè)物體的真實(shí)區(qū)域(ground true box),將default box和真實(shí)box最接近的選為正樣本。然后在剩下的default box中選擇任意一個(gè)與真實(shí)box IOU大于0.5的,作為正樣本。而其他的則作為負(fù)樣本。由于絕大部分的box為負(fù)樣本,會(huì)導(dǎo)致正負(fù)失衡,故根據(jù)每個(gè)box類別概率排序,使正負(fù)比例保持在1:3。SSD認(rèn)為這個(gè)策略提高了4%的準(zhǔn)確率 另外,SSD采用了數(shù)據(jù)增強(qiáng)。生成與目標(biāo)物體真實(shí)box間IOU為0.1 0.3 0.5 0.7 0.9的patch,隨機(jī)選取這些patch參與訓(xùn)練,并對(duì)他們進(jìn)行隨機(jī)水平翻轉(zhuǎn)等操作。SSD認(rèn)為這個(gè)策略提高了8.8%的準(zhǔn)確率。 和yolo的篩選層基本一致,同樣先過濾掉類別概率低于閾值的default box,再采用NMS非極大值抑制,篩掉重疊度較高的。只不過SSD綜合了各個(gè)不同feature map上的目標(biāo)檢測(cè)輸出的default box。 SSD基本已經(jīng)可以滿足我們手機(jī)端上實(shí)時(shí)物體檢測(cè)需求了,TensorFlow在Android上的目標(biāo)檢測(cè)官方模型ssd_mobilenet_v1_android_export.pb,就是通過SSD算法實(shí)現(xiàn)的。它的基礎(chǔ)卷積網(wǎng)絡(luò)采用的是mobileNet,適合在終端上部署和運(yùn)行。 針對(duì)yolo準(zhǔn)確率不高,容易漏檢,對(duì)長(zhǎng)寬比不常見物體效果差等問題,結(jié)合SSD的特點(diǎn),提出了yoloV2。它主要還是采用了yolo的網(wǎng)絡(luò)結(jié)構(gòu),在其基礎(chǔ)上做了一些優(yōu)化和改進(jìn),如下 網(wǎng)絡(luò)采用DarkNet-19:19層,里面包含了大量3x3卷積,同時(shí)借鑒inceptionV1,加入1x1卷積核全局平均池化層。結(jié)構(gòu)如下 yolo和yoloV2只能識(shí)別20類物體,為了優(yōu)化這個(gè)問題,提出了yolo9000,可以識(shí)別9000類物體。它在yoloV2基礎(chǔ)上,進(jìn)行了imageNet和coco的聯(lián)合訓(xùn)練。這種方式充分利用imageNet可以識(shí)別1000類物體和coco可以進(jìn)行目標(biāo)位置檢測(cè)的優(yōu)點(diǎn)。當(dāng)使用imageNet訓(xùn)練時(shí),只更新物體分類相關(guān)的參數(shù)。而使用coco時(shí),則更新全部所有參數(shù)。 YOLOv3可以說出來直接吊打一切圖像檢測(cè)算法。比同期的DSSD(反卷積SSD), FPN(feature pyramid networks)準(zhǔn)確率更高或相仿,速度是其1/3.。 YOLOv3的改動(dòng)主要有如下幾點(diǎn):不過如果要求更精準(zhǔn)的預(yù)測(cè)邊框,采用COCO AP做評(píng)估標(biāo)準(zhǔn)的話,YOLO3在精確率上的表現(xiàn)就弱了一些。如下圖所示。 當(dāng)前目標(biāo)檢測(cè)模型算法也是層出不窮。在two-stage領(lǐng)域, 2017年Facebook提出了mask R-CNN 。CMU也提出了A-Fast-RCNN 算法,將對(duì)抗學(xué)習(xí)引入到目標(biāo)檢測(cè)領(lǐng)域。Face++也提出了Light-Head R-CNN,主要探討了 R-CNN 如何在物體檢測(cè)中平衡精確度和速度。 one-stage領(lǐng)域也是百花齊放,2017年首爾大學(xué)提出 R-SSD 算法,主要解決小尺寸物體檢測(cè)效果差的問題。清華大學(xué)提出了 RON 算法,結(jié)合 two stage 名的方法和 one stage 方法的優(yōu)勢(shì),更加關(guān)注多尺度對(duì)象定位和負(fù)空間樣本挖掘問題。 目標(biāo)檢測(cè)領(lǐng)域的深度學(xué)習(xí)算法,需要進(jìn)行目標(biāo)定位和物體識(shí)別,算法相對(duì)來說還是很復(fù)雜的。當(dāng)前各種新算法也是層不出窮,但模型之間有很強(qiáng)的延續(xù)性,大部分模型算法都是借鑒了前人的思想,站在巨人的肩膀上。我們需要知道經(jīng)典模型的特點(diǎn),這些tricks是為了解決什么問題,以及為什么解決了這些問題。這樣才能舉一反三,萬變不離其宗。綜合下來,目標(biāo)檢測(cè)領(lǐng)域主要的難點(diǎn)如下: 一文讀懂目標(biāo)檢測(cè)AI算法:R-CNN,faster R-CNN,yolo,SSD,yoloV2 從YOLOv1到v3的進(jìn)化之路 SSD-Tensorflow超詳細(xì)解析【一】:加載模型對(duì)圖片進(jìn)行測(cè)試 https://blog.csdn.net/k87974/article/details/80606407 YOLO https://pjreddie.com/darknet/yolo/ https://github.com/pjreddie/darknet C#項(xiàng)目參考:https://github.com/AlturosDestinations/Alturos.Yolo 項(xiàng)目實(shí)踐貼個(gè)圖。

9,計(jì)算機(jī)視覺中究竟有哪些好用的目標(biāo)跟蹤算法

貌似有人把跟蹤(tracking)和計(jì)算機(jī)視覺中的目標(biāo)跟蹤搞混了。前者更偏向數(shù)學(xué),是對(duì)狀態(tài)空間在時(shí)間上的變化進(jìn)行建模,并對(duì)下一時(shí)刻的狀態(tài)進(jìn)行預(yù)測(cè)的算法。例如卡爾曼濾波,粒子濾波等。后者則偏向應(yīng)用,給定中第一幀的某個(gè)物體的框,由算法給出后續(xù)幀中該物體的位置。最初是為了解決檢測(cè)算法速度較慢的問題,后來慢慢自成一系。因?yàn)樽兂闪藨?yīng)用問題,所以算法更加復(fù)雜,通常由好幾個(gè)模塊組成,其中也包括數(shù)學(xué)上的tracking算法,還有提取特征,在線分類器等步驟。在自成一系之后,目標(biāo)跟蹤實(shí)際上就變成了利用之前幾幀的物體狀態(tài)(旋轉(zhuǎn)角度,尺度),對(duì)下一幀的物體檢測(cè)進(jìn)行約束(剪枝)的問題了。沒錯(cuò),它又變回物體檢測(cè)算法了,但卻人為地把首幀得到目標(biāo)框的那步剝離出來。在各界都在努力建立end-to-end系統(tǒng)的時(shí)候,目標(biāo)跟蹤卻只去研究一個(gè)子問題,選擇性無視"第一幀的框是怎么來的"的問題。我想,目標(biāo)跟蹤的下一步應(yīng)該是成為目標(biāo)檢測(cè)的一步,充分利用物體特性,建成一個(gè)中目標(biāo)檢測(cè)的大系統(tǒng),而不是自成體系,只在自己的小圈子里做研究。答主并非是做目標(biāo)跟蹤方向研究的,但導(dǎo)師在博士期間是做的這個(gè)方向,因此也跟著有所涉獵。先匿了,如果有說的不對(duì)的地方,還請(qǐng)指正。

10,特征提取后 怎么用kcf進(jìn)行目標(biāo)檢測(cè)

KCF是一種鑒別式追蹤方法,這類方法一般都是在追蹤過程中訓(xùn)練一個(gè)目標(biāo)檢測(cè)器,使用目標(biāo)檢測(cè)器去檢測(cè)下一幀預(yù)測(cè)位置是否是目標(biāo),然后再使用新檢測(cè)結(jié)果去更新訓(xùn)練集進(jìn)而更新目標(biāo)檢測(cè)器。而在訓(xùn)練目標(biāo)檢測(cè)器時(shí)一般選取目標(biāo)區(qū)域?yàn)檎龢颖?,目?biāo)的周圍區(qū)域?yàn)樨?fù)樣本,當(dāng)然越靠近目標(biāo)的區(qū)域?yàn)檎龢颖镜目赡苄栽酱?。?jiǎn)單來說 KCF 是 核相關(guān)濾波算法,濾波器 和 跟蹤patch 進(jìn)行相乘的到相關(guān)性,對(duì)應(yīng)位置較大的值,相關(guān)性較強(qiáng),即表示得到的目標(biāo)位置。KCF全稱為Kernel Correlation Filter 核相關(guān)濾波算法。是在2014年由Joao F. Henriques, Rui Caseiro, Pedro Martins, and Jorge Batista提出來的,算法出來之后也算是轟動(dòng)一時(shí),這個(gè)算法不論是在跟蹤效果還是跟蹤速度上都有十分亮眼的表現(xiàn),所以引起了一大批的學(xué)者對(duì)這個(gè)算法進(jìn)行研究以及工業(yè)界也在陸續(xù)把這個(gè)算法應(yīng)用在實(shí)際場(chǎng)景當(dāng)中。這個(gè)算法主頁里面有論文還有代碼都可以在這里面下載,也有一些簡(jiǎn)介之類的,這篇文章在2015年作者又發(fā)在了TPAMI上面,所以大家可能會(huì)看到兩個(gè)版本,但是沒有改動(dòng),都是可以看到。論文下載地址相關(guān)濾波算法算是判別式跟蹤,主要是使用給出的樣本去訓(xùn)練一個(gè)判別分類器,判斷跟蹤到的是目標(biāo)還是周圍的背景信息。主要使用輪轉(zhuǎn)矩陣對(duì)樣本進(jìn)行采集,使用快速傅里葉變化對(duì)算法進(jìn)行加速計(jì)算。KCF的主要貢獻(xiàn)使用目標(biāo)周圍區(qū)域的循環(huán)矩陣采集正負(fù)樣本,利用脊回歸訓(xùn)練目標(biāo)檢測(cè)器,并成功的利用循環(huán)矩陣在傅里葉空間可對(duì)角化的性質(zhì)將矩陣的運(yùn)算轉(zhuǎn)化為向量的Hadamad積,即元素的點(diǎn)乘,大大降低了運(yùn)算量,提高了運(yùn)算速度,使算法滿足實(shí)時(shí)性要求。將線性空間的脊回歸通過核函數(shù)映射到非線性空間,在非線性空間通過求解一個(gè)對(duì)偶問題和某些常見的約束,同樣的可以使用循環(huán)矩陣傅里葉空間對(duì)角化簡(jiǎn)化計(jì)算。給出了一種將多通道數(shù)據(jù)融入該算法的途徑。二、詳細(xì)介紹Abstract:主要介紹了一下這篇文章的想法的由來以及算法的成就和所使用的東西,還介紹了一下論文在哪些數(shù)據(jù)集上測(cè)試了等。簡(jiǎn)介一般就是論文的總結(jié),對(duì)論文做一個(gè)總體的介紹,大致的思想基本看了間接之后就能明白了,就是上面我寫的那些,使用核相關(guān)濾波器訓(xùn)練一個(gè)判別式分類器,使用輪轉(zhuǎn)矩陣生成樣本去訓(xùn)練分類器,代碼也是開源的。Correlat
我不會(huì)~~~但還是要微笑~~~:)
文章TAG:目標(biāo)檢測(cè)算法運(yùn)動(dòng)目標(biāo)檢測(cè)高斯混合模型matlab

最近更新

  • PGA封裝,F(xiàn)CPGA指甚么封裝方式PGA封裝,F(xiàn)CPGA指甚么封裝方式

    FCPGA指甚么封裝方式2,BGA和PGA有什么區(qū)別3,CPU原裝針腳PGA于加針BGA性能上有什么不同嗎4,cpu的封裝類型是什么意思5,CPU封裝PGA封裝該技術(shù)也叫什么技術(shù)6,PGA封裝的特點(diǎn)有哪些1,F(xiàn)CPGA指甚么.....

    問答 日期:2023-08-23

  • 開機(jī)自動(dòng)運(yùn)行 安卓,安卓開機(jī)自動(dòng)運(yùn)行app如何禁止開機(jī)自動(dòng)運(yùn)行 安卓,安卓開機(jī)自動(dòng)運(yùn)行app如何禁止

    安卓如何為手機(jī)指定app開機(jī)-2/開始到前臺(tái)設(shè)置。有一個(gè)應(yīng)用程序自啟動(dòng)管理,將指定的app設(shè)置設(shè)為開機(jī)自動(dòng)Start,2.打開手機(jī),設(shè)置應(yīng)用管理器左右滑動(dòng),查看是否有自動(dòng)運(yùn)行"選項(xiàng),打開一些軟件,取.....

    問答 日期:2023-08-23

  • 不交叉,在空間若兩條直線不相交則它們一定異面或平行這句話對(duì)嗎謝不交叉,在空間若兩條直線不相交則它們一定異面或平行這句話對(duì)嗎謝

    在空間若兩條直線不相交則它們一定異面或平行這句話對(duì)嗎謝2,關(guān)于交換機(jī)24口與交換機(jī)24口對(duì)聯(lián)的網(wǎng)線如果不使用交叉3,握手時(shí)注意的禮節(jié)是什么4,我們真的是條永不交叉的平行線嗎5,為什么連接.....

    問答 日期:2023-08-23

  • 谷歌地圖離線版 實(shí)時(shí)交通數(shù)據(jù)谷歌地圖離線版 實(shí)時(shí)交通數(shù)據(jù)

    谷歌衛(wèi)星地圖是實(shí)時(shí)-3/?谷歌衛(wèi)星地圖否實(shí)時(shí)地圖。以下是一些常用的實(shí)時(shí)衛(wèi)星地圖軟件apps,谷歌-3/支持多平臺(tái)使用,免費(fèi),并提供豐富的實(shí)時(shí),無衛(wèi)星地圖(包括-1地圖、百度地圖、高德地圖)等,)我.....

    問答 日期:2023-08-23

  • 6lowpan,6LoWPAN網(wǎng)絡(luò)適配層作用是什么6lowpan,6LoWPAN網(wǎng)絡(luò)適配層作用是什么

    6LoWPAN網(wǎng)絡(luò)適配層作用是什么2,zigbee與6lowpan物理層與數(shù)據(jù)使用什么協(xié)議鏈路層3,什么是6lowpan邊界路由器4,6lowpan在zigbee基礎(chǔ)上做了什么改進(jìn)5,6lowpanzigbee哪個(gè)功耗低6,6LoWPANIPv61,6L.....

    問答 日期:2023-08-23

  • 頭戴式顯示器,頭戴式顯示器哪款比較好頭戴式顯示器,頭戴式顯示器哪款比較好

    頭戴式顯示器哪款比較好2,VirtualResearchRuggedizediVisor頭戴式顯示器的技術(shù)特征有哪些3,頭戴顯示器是什么新玩意有誰能告訴我一下4,頭戴式顯示器推薦有哪些5,頭戴式顯示器有哪些用途6,頭.....

    問答 日期:2023-08-23

  • 3cx,電氣圖中 3Cx25 Sqmm什么意思3cx,電氣圖中 3Cx25 Sqmm什么意思

    電氣圖中3Cx25Sqmm什么意思2,如何將安卓手機(jī)端的3CXPHONE設(shè)置成電腦端的另一個(gè)分機(jī)這樣電3,怎樣辨別766a和jcb3cx4,播放器的插件是什么1,電氣圖中3Cx25Sqmm什么意思Sq.mm英文是平方毫米的.....

    問答 日期:2023-08-23

  • 研華板卡,研華運(yùn)動(dòng)板卡中的命令位置和實(shí)際位置有何區(qū)別研華板卡,研華運(yùn)動(dòng)板卡中的命令位置和實(shí)際位置有何區(qū)別

    研華運(yùn)動(dòng)板卡中的命令位置和實(shí)際位置有何區(qū)別2,研華板卡型號(hào)PCI1761功能是做什么的3,使用研華板卡如何在labview中設(shè)置采樣頻率4,研華公司的數(shù)字量輸入輸出板卡介紹5,如何在Labview下使用.....

    問答 日期:2023-08-23