国产无码免费,人妻口爆,国产V在线,99中文精品7,国产成人无码AA精品一,制度丝袜诱惑av,久久99免费麻辣视频,蜜臀久久99精品久久久久久酒店
        訂閱
        糾錯
        加入自媒體

        一文了解CNN可視化技術(shù)總結(jié)之特征圖可視化

        導(dǎo)言:

           在CV很多方向所謂改進(jìn)模型,改進(jìn)網(wǎng)絡(luò),都是在按照人的主觀思想在改進(jìn),常常在說CNN的本質(zhì)是提取特征,但并不知道它提取了什么特征,哪些區(qū)域?qū)τ谧R別真正起作用,也不知道網(wǎng)絡(luò)是根據(jù)什么得出了分類結(jié)果。

           如在上次解讀的一篇論文《Feature Pyramid Transformer》(簡稱FPT)中,作者提出背景信息對于識別目標(biāo)有重要作用,因?yàn)殡娔X肯定是在桌上,而不是水里,大街上,背景中的鍵盤鼠標(biāo)的存在也能輔助區(qū)分電腦與電視機(jī),因此作者提出要使用特征金字塔融合背景信息。從人的主觀判斷來看,這點(diǎn)非常合理。但對于神經(jīng)網(wǎng)絡(luò)來說,FPT真的有融合背景信息,而普通CNN網(wǎng)絡(luò)沒有融合背景信息?又或者說,一般而言,除了提出的新模型,還會加上主觀設(shè)計的各種tricks,確定最后是因?yàn)槿诤狭吮尘靶畔⒍忍岣吡?還是說背景確實(shí)融合了,但實(shí)際上對精度沒有影響,而是各種tricks起了作用?這一切并不確定,因?yàn)椴⒉淮_定CNN到底學(xué)到了什么。

           解決這個問題的辦法有很多,一個是想辦法看看CNN內(nèi)部學(xué)到了什么,一個是控制變量法。提到這個控制變量法,在某一篇論文中(我對不起我的讀者,論文累積量太大,忘記是哪一篇,只記得該論文的一些新穎之處),在設(shè)計了一個新的模型后,通過改變卷積層的某些通道,來看最后模型的精度的變化,從而確定哪些通道對這個模型是真正起作用的,而哪些是冗余的。按照這個思路,我們或許可以在數(shù)據(jù)預(yù)處理時,故意裁剪掉人主觀認(rèn)為有用的背景信息,例如裁剪輔助識別電腦的桌子,鍵盤鼠標(biāo),重新訓(xùn)練FPT,從而看最終精度有沒有影響。很明顯,這種方法理論上是可行的,但實(shí)際上工作量巨大,不現(xiàn)實(shí)。而CNN可視化是值得考慮的方法。

           除了上面提到的一點(diǎn),CNN可視化的作用還有哪些?

           在少數(shù)提出新模型或新methods的論文中,往往會給出這個模型的一些可視化圖來證明這個模型或這個新methods對于任務(wù)的作用,這一點(diǎn)不僅能增加新模型或新methods可信度,也能起到增加工作量,增加論文字?jǐn)?shù)的作用,如研究者想到一個method,一兩頁就介紹加推理加證明完了,效果明顯,但作為一篇論文卻字?jǐn)?shù)太少,工作量不夠多,就可以考慮可視化使用了這個methods的網(wǎng)絡(luò)與沒有使用這個methods的網(wǎng)絡(luò),進(jìn)行對比,分析分析,就可以變成一篇完整的論文了。此外,CNN可視化還有一個作用,根據(jù)可視化某個網(wǎng)絡(luò)的結(jié)果分析其不足之處,從而提出新的改進(jìn)方法。例如:ZFNet正是對AlexNet進(jìn)行可視化后改進(jìn)而來,獲得了ILSVRC2014的冠軍。

        歡迎關(guān)注公眾號 CV技術(shù)指南 ,專注于計算機(jī)視覺的技術(shù)總結(jié)、最新技術(shù)跟蹤、經(jīng)典論文解讀。

        CNN可視化方法

        一、特征圖可視化。特征圖可視化有兩類方法,一類是直接將某一層的feature map映射到0-255的范圍,變成圖像 。另一類是使用一個反卷積網(wǎng)絡(luò)(反卷積、反池化)將feature map變成圖像,從而達(dá)到可視化feature map的目的。

        二、卷積核可視化。

        三、類激活可視化。這個主要用于確定圖像哪些區(qū)域?qū)ψR別某個類起主要作用。如常見的熱力圖(Heat Map),在識別貓時,熱力圖可直觀看出圖像中每個區(qū)域?qū)ψR別貓的作用大小。這個目前主要用的方法有CAM系列(CAM、Grad-CAM、Grad-CAM++)。

        四、一些技術(shù)工具。通過一些研究人員開源出來的工具可視化CNN模型某一層。

           CNN技術(shù)總結(jié)將按照這四個方法,分成四個部分總結(jié)CNN可視化技術(shù)。對于以后出現(xiàn)新的技術(shù),或者補(bǔ)充,將更新在公眾號CV技術(shù)指南的技術(shù)總結(jié)部分。在本文,主要介紹第一類方法,特征圖可視化。

        直接可視化

        單通道特征圖可視化,由于feature map并不是在0-255范圍,因此需要將其進(jìn)行歸一化。以pytorch為例,使用torchvision.utils.make_grid()函數(shù)實(shí)現(xiàn)歸一化

        def make_grid(tensor, nrow=8, padding=2,              normalize=True, range=None,               scale_each=False,pad_value=0):

        多通道特征圖的顯示,即對某一層所有通道上的特征圖融合顯示,在使用make_grid函數(shù)后,pytorch環(huán)境下可使用tensorboardX下的SummerWriterh中的add_image函數(shù)。

        本部分內(nèi)容參考鏈接:

        image.png

        反卷積網(wǎng)絡(luò)deconvnet

        feature map可視化的另一種方式是通過反卷積網(wǎng)絡(luò)從feature map變成圖像。反卷積網(wǎng)絡(luò)在論文《Visualizing and Understanding Convolutional Networks》中提出,論文中提出圖像像素經(jīng)過神經(jīng)網(wǎng)絡(luò)映射到特征空間,而反卷積網(wǎng)絡(luò)可以將feature map映射回像素空間。

           如下圖所示,反卷積網(wǎng)絡(luò)的用途是對一個訓(xùn)練好的神經(jīng)網(wǎng)絡(luò)中任意一層feature map經(jīng)過反卷積網(wǎng)絡(luò)后重構(gòu)出像素空間,主要操作是反池化unpooling、修正rectify、濾波filter,換句話說就是反池化,反激活,反卷積。

        CNN可視化技術(shù)總結(jié)(一)-特征圖可視化

         
           由于不可能獲取標(biāo)簽數(shù)據(jù),因此反卷積網(wǎng)絡(luò)是一個無監(jiān)督的,不具備學(xué)習(xí)能力的,就像一個訓(xùn)練好的網(wǎng)絡(luò)的檢測器,或者說是一個復(fù)雜的映射函數(shù)。

        反池化Unpooling

        在上一篇文章《池化技術(shù)總結(jié)》中提到最大池化會記錄最大值的坐標(biāo),在上圖中就是switches,而反池化就只需要將最大值放到原位置,而其他位置的值并不知道,直接置零。如下圖所示。

        CNN可視化技術(shù)總結(jié)(一)-特征圖可視化

        修正Rectification

          CNN使用ReLU確保feature map上的值都是正的,因此在反卷積中也使用ReLU。這里所謂Rectification其實(shí)就是讓unpooling后的值都是正的,換句話說就是使用ReLU。

        Filtering

        Filtering指的是反卷積,具體操作就是使用原網(wǎng)絡(luò)的卷積核的轉(zhuǎn)置作為卷積核,對Rectification后的輸出進(jìn)行卷積。

        注:在以上重構(gòu)過程中沒有使用對比歸一化操作。

        反卷積網(wǎng)絡(luò)特征可視化結(jié)果

        CNN可視化技術(shù)總結(jié)(一)-特征圖可視化

        導(dǎo)向反向傳播

        在論文《Striving for Simplicity:The All Convolutional Net》中提出使用導(dǎo)向反向傳播(Guided- backpropagation),導(dǎo)向反向傳播與反卷積網(wǎng)絡(luò)的區(qū)別在于對ReLU的處理方式。在反卷積網(wǎng)絡(luò)中使用ReLU處理梯度,只回傳梯度大于0的位置,而在普通反向傳播中只回傳feature map中大于0的位置,在導(dǎo)向反向傳播中結(jié)合這兩者,只回傳輸入和梯度都大于0的位置,這相當(dāng)于在普通反向傳播的基礎(chǔ)上增加了來自更高層的額外的指導(dǎo)信號,這阻止了負(fù)梯度的反傳流動,梯度小于0的神經(jīng)元降低了正對應(yīng)更高層單元中我們想要可視化的區(qū)域的激活值。

        CNN可視化技術(shù)總結(jié)(一)-特征圖可視化

        使用導(dǎo)向反向傳播與反卷積網(wǎng)絡(luò)的效果對比

        CNN可視化技術(shù)總結(jié)(一)-特征圖可視化

        明顯使用導(dǎo)向反向傳播比反卷積網(wǎng)絡(luò)效果更好。

        總結(jié):分析反卷積網(wǎng)絡(luò)的對各層feature map可視化的結(jié)果可知,CNN中會學(xué)到圖像中的一些主要特征,如狗頭,鼻子眼睛,紋理,輪廓等內(nèi)容。但對特征圖可視化有個明顯的不足,即無法可視化圖像中哪些區(qū)域?qū)ψR別具體某個類別的作用,這個主要是使用CAM系列的方法,會在第三篇文章中介紹。下一篇將介紹可視化卷積核的方法。

        參考論文:

        《Visualizing and Understanding Convolutional Networks》

        《Striving for Simplicity:The All Convolutional Net》

        本文來源于公眾號CV技術(shù)指南的技術(shù)總結(jié)系列

        歡迎關(guān)注公眾號 CV技術(shù)指南 ,專注于計算機(jī)視覺的技術(shù)總結(jié)、最新技術(shù)跟蹤、經(jīng)典論文解讀。

        聲明: 本文由入駐維科號的作者撰寫,觀點(diǎn)僅代表作者本人,不代表OFweek立場。如有侵權(quán)或其他問題,請聯(lián)系舉報。

        發(fā)表評論

        0條評論,0人參與

        請輸入評論內(nèi)容...

        請輸入評論/評論長度6~500個字

        您提交的評論過于頻繁,請輸入驗(yàn)證碼繼續(xù)

        • 看不清,點(diǎn)擊換一張  刷新

        暫無評論

        暫無評論

          人工智能 獵頭職位 更多
          掃碼關(guān)注公眾號
          OFweek人工智能網(wǎng)
          獲取更多精彩內(nèi)容
          文章糾錯
          x
          *文字標(biāo)題:
          *糾錯內(nèi)容:
          聯(lián)系郵箱:
          *驗(yàn) 證 碼:

          粵公網(wǎng)安備 44030502002758號

          主站蜘蛛池模板: 册亨县| 97大香| 亚洲午夜av| 六枝特区| 亚洲精品一区二区三| 合阳县| 日日夜夜噜噜| 亚洲无码流出| 国产精品成人三级| 中文久久久无码| 国产精品一亚洲AV日韩AV欧| 久久精品亚洲| 国产熟女真品久| 99视频免费观看| 性爱国产| 宝山区| 香蕉视频在线国产| 国产AV大全| 日韩无码系列| 婷婷久久久久| 综合av| 熟女人妻AV| 少妇精品| 新竹县| 新丰县| 熟女五码SV| 老熟女av| 玖草视频在线观看| 99福利视频| 超碰在线成人| 亚洲aaaaaa| 熟女中文字幕| 91蜜桃婷婷狠狠久久综合9色| 国产19p| 最新在线中文字幕| 久草手机在线| 三级片导航| 成人av中文字幕在线播放| 中文字幕av久久波多野结| 东宁县| 波多野结衣AV一区|