久久久18,天天躁夜夜躁狠狠躁婷婷,国产成人三级一区二区在线观看一,最近的2019中文字幕视频 ,最新免费av在线观看

a&s專業(yè)的自動(dòng)化&安全生態(tài)服務(wù)平臺(tái)
公眾號(hào)
安全自動(dòng)化

安全自動(dòng)化

安防知識(shí)網(wǎng)

安防知識(shí)網(wǎng)

手機(jī)站
手機(jī)站

手機(jī)站

大安防供需平臺(tái)
大安防供需平臺(tái)

大安防供需平臺(tái)

資訊頻道橫幅A1

淺談?dòng)?jì)算機(jī)視覺中的目標(biāo)檢測

近年來,隨著深度學(xué)習(xí)的發(fā)展,對(duì)目標(biāo)檢測的研究逐漸由傳統(tǒng)機(jī)器視覺算法轉(zhuǎn)移到深度神經(jīng)網(wǎng)絡(luò)方向。

  目標(biāo)檢測是屬于計(jì)算機(jī)視覺范疇的重要研究方向,傳統(tǒng)目標(biāo)檢測主要是基于統(tǒng)計(jì)或知識(shí)的方法,近年來,隨著深度學(xué)習(xí)的發(fā)展,對(duì)目標(biāo)檢測的研究逐漸由傳統(tǒng)機(jī)器視覺算法轉(zhuǎn)移到深度神經(jīng)網(wǎng)絡(luò)方向。

  計(jì)算機(jī)理解圖像的任務(wù)表述可以分為分類、檢測、語義分割、實(shí)例分割4個(gè)層次,目標(biāo)檢測是其中一個(gè)層次。

bd3eb13533fa828bab21c0568296fd32960a5a90.jpeg

  圖1:圖像理解的4個(gè)層次 圖片來源:[1]

  a是分類(Classification),是將圖像分成不同的類別,只需輸出圖像對(duì)應(yīng)的類別,是最基礎(chǔ)的圖像理解任務(wù),在應(yīng)用領(lǐng)域,人臉識(shí)別、手勢(shì)識(shí)別等都可以歸為分類任務(wù)。

  b是檢測(Detection), 檢測是要根據(jù)大量預(yù)定義的類別同時(shí)獲得同一幀圖像中各種目標(biāo)的類別信息和位置信息,需要從圖像分離出目標(biāo)并輸出這一目標(biāo)的類別和位置,檢測模型的輸出通常是包含類別和位置的數(shù)據(jù)列表。

  c是語義分割(Semantic segmentation),語義分割是是對(duì)前背景分類的拓展,要分離開具有不同語義的圖像部分,也可對(duì)圖像像素級(jí)描述。

  d是實(shí)例分割(Instance segmentation),實(shí)例分割是檢測任務(wù)的拓展,要分離背景并描述出目標(biāo)的輪廓,對(duì)圖像像素級(jí)描述,適用于理解要求精細(xì)的場景。

  一)傳統(tǒng)目標(biāo)檢測

  1、基于知識(shí)的方法

  核心思想是模塊化。以人臉檢測為例,它將人臉劃分成眼、鼻、嘴等各個(gè)模塊的組合,利用先驗(yàn)知識(shí)來識(shí)別各個(gè)模塊,同時(shí)基于各個(gè)模塊之間的距離來進(jìn)行人臉的識(shí)別。

  2、基于統(tǒng)計(jì)的方法

  主要基于統(tǒng)計(jì)學(xué)習(xí),將整個(gè)待檢測圖片看作一個(gè)像素矩陣,利用其統(tǒng)計(jì)特性結(jié)合一些機(jī)器學(xué)習(xí)的算法進(jìn)行識(shí)別,例如Fisher線性判別。

  二)深度學(xué)習(xí)目標(biāo)檢測

  1.單階段(one-stage)檢測模型

  單階段模型沒有中間的區(qū)域檢出過程,直接從圖片獲得預(yù)測結(jié)果,也被稱為Region-free方法,單階段模型只進(jìn)行一次類別預(yù)測和位置回歸,卷積運(yùn)算的共享程度更高,擁有更快的速度和更小的內(nèi)存占用。代表算法有YOLO、SSD算法等。

  1b4c510fd9f9d72a6078378355a39432359bbb9b.jpeg

  圖2:YOLO網(wǎng)絡(luò)架構(gòu) 圖片來源:[2]

  YOLO論文鏈接:https://arxiv.org/abs/1506.02640

  9a504fc2d5628535d48dfdd11066cac0a6ef6364.jpeg

  圖3:SSD網(wǎng)絡(luò)架構(gòu) 圖片來源:[3]

  SSD論文鏈接:https://arxiv.org/abs/1512.02325

  2. 兩階段(two-stage)檢測模型

  兩階段模型對(duì)圖片分兩階段處理,也稱為基于區(qū)域(Region-based)的方法。例如RCNN是先提出若干可能包含物體的候選區(qū)域(即圖片的局部區(qū)域,稱為Region Proposal),RCNN使用的是Selective Search算法;再在提出的這些區(qū)域上運(yùn)行分類網(wǎng)絡(luò)檢測出每個(gè)區(qū)域的物體。代表算法有RCNN、Fast-RCNN、Faster-RCNN 等。

  63d0f703918fa0ecd59d4734a61ee5e83c6ddbc5.jpeg

  圖4:RCNN網(wǎng)絡(luò)架構(gòu) 圖片來源:百度

  RCNN論文鏈接:https://arxiv.org/abs/1311.2524

  08f790529822720e14193c9cfb42b640f31fab15.jpeg

  圖5:Fast-RCNN網(wǎng)絡(luò)架構(gòu) 圖片來源:百度

  Fast-RCNN論文鏈接:https://arxiv.org/abs/1504.08083

  進(jìn)入深度學(xué)習(xí)時(shí)代以來,目標(biāo)檢測發(fā)展主要集中在兩個(gè)方向:第一種是one stage算法,如YOLO系列,這類算法會(huì)直接在網(wǎng)絡(luò)中提取特征來預(yù)測物體分類和位置,這類算法速度快,但是準(zhǔn)確性要低一些。第二種是two stage算法,如RCNN系列,這類算法需要先生成region proposal(目標(biāo)候選框),然后再對(duì)候選框進(jìn)行篩選、分類和回歸,這類算法準(zhǔn)確度較高,但是速度相對(duì)較慢。

  隨著科技的發(fā)展,相信計(jì)算機(jī)視覺技術(shù)可以幫助我們提取、分析和理解更多更有用的信息,使我們的生活越來越智能化。

  faf2b2119313b07e27455baa735e2d2596dd8c2c.jpeg

  圖6:Faster-RCNN網(wǎng)絡(luò)架構(gòu) 圖片來源:

  Faster-RCNN論文鏈接:https://arxiv.org/abs/1506.01497

  [1]從R-CNN到RFBNet,目標(biāo)檢測架構(gòu)5年演進(jìn)全盤點(diǎn)

  [2] You Only Look Once:Real-Time Object Detection

  [3] SSD: Single Shot Multibox Detector

參與評(píng)論
回復(fù):
0/300
文明上網(wǎng)理性發(fā)言,評(píng)論區(qū)僅供其表達(dá)個(gè)人看法,并不表明a&s觀點(diǎn)。
0
關(guān)于我們

a&s傳媒是全球知名展覽公司法蘭克福展覽集團(tuán)旗下的專業(yè)媒體平臺(tái),自1994年品牌成立以來,一直專注于安全&自動(dòng)化產(chǎn)業(yè)前沿產(chǎn)品、技術(shù)及市場趨勢(shì)的專業(yè)媒體傳播和品牌服務(wù)。從安全管理到產(chǎn)業(yè)數(shù)字化,a&s傳媒擁有首屈一指的國際行業(yè)展覽會(huì)資源以及豐富的媒體經(jīng)驗(yàn),提供媒體、活動(dòng)、展會(huì)等整合營銷服務(wù)。

免責(zé)聲明:本站所使用的字體和圖片文字等素材部分來源于互聯(lián)網(wǎng)共享平臺(tái)。如使用任何字體和圖片文字有冒犯其版權(quán)所有方的,皆為無意。如您是字體廠商、圖片文字廠商等版權(quán)方,且不允許本站使用您的字體和圖片文字等素材,請(qǐng)聯(lián)系我們,本站核實(shí)后將立即刪除!任何版權(quán)方從未通知聯(lián)系本站管理者停止使用,并索要賠償或上訴法院的,均視為新型網(wǎng)絡(luò)碰瓷及敲詐勒索,將不予任何的法律和經(jīng)濟(jì)賠償!敬請(qǐng)諒解!
? 2024 - 2030 Messe Frankfurt (Shenzhen) Co., Ltd, All rights reserved.
法蘭克福展覽(深圳)有限公司版權(quán)所有 粵ICP備12072668號(hào) 粵公網(wǎng)安備 44030402000264號(hào)
用戶
反饋