国产无码免费,人妻口爆,国产V在线,99中文精品7,国产成人无码AA精品一,制度丝袜诱惑av,久久99免费麻辣视频,蜜臀久久99精品久久久久久酒店
        訂閱
        糾錯
        加入自媒體

        ECCV 2020附代碼論文合集(CNN,圖像分割)

        2020-08-21 11:18
        學術頭條
        關注

        5 Rethinking Bottleneck Structure for Efficient Mobile Network Design

        作者:Zhou Daquan,Qibin Hou,Yunpeng Chen,Jiashi Feng,Shuicheng Yan

        機構:新加坡國立大學,依圖科技

        簡介:反向剩余塊是近年來移動網絡體系結構設計的主流。它通過引入反向殘差學習和使用線性瓶頸兩種設計規則來改變傳統的剩余瓶頸。本文對這種設計變更的必要性進行了反思,發現這種變更可能帶來信息丟失和梯度混淆的風險。因此,我們建議翻轉結構并提出一種新的瓶頸設計,稱為沙漏塊,在更高的維度上執行身份映射和空間變換,從而有效地減少信息丟失和梯度混淆。大量的實驗表明,與一般的觀點不同,這種瓶頸結構比倒置的瓶頸結構對移動網絡更為有利。在ImageNet分類中,通過簡單地用我們的沙漏塊代替倒立的殘差塊而不增加參數和計算量,分類精度比MobileNetV2提高1.7%以上。在pascalvoc2007測試集上,觀察到在目標檢測方面也有0.9%的mAP改進。通過將其加入神經結構搜索方法DARTS的搜索空間,進一步驗證了沙漏塊的有效性。經過25%的參數簡化,分類精度比以前的DARTS模型提高了0.13%。

        6 MutualNet: Adaptive ConvNet via Mutual Learning from Network Width and Resolution

        作者:Taojiannan Yang,Sijie Zhu,Chen Chen,Shen Yan,Mi Zhang,Andrew Willis

        機構:北加利福利亞大學,密歇根州立大學

        簡介:本文提出了寬度-分辨率相互學習的方法(MutualNet),根據動態的資源約束來訓練網絡,實現運行時自適應的準確率-效率的平衡。該方法利用不同的寬度和輸入分辨率,訓練了多個子網絡,每個網絡都互相學習多尺度的特征表示。相對于目前SOTA的自適應網絡 US-Net,本文方法在ImageNet上取得了更高的top-1準確率,要比最優的復合尺度的MobileNet和EfficientNet 高1.5%1.5%1.5%。在COCO目標檢測、實例分割和遷移學習任務上,該方法也進行了驗證。MutualNet的訓練策略可以提升單個網絡的性能,在效率(GPU搜索時間:1500 vs. 0)和準確率方面都顯著超過了AutoAugmentation。

        7 PSConv: Squeezing Feature Pyramid into One Compact Poly-Scale Convolutional Layer

        作者:Duo Li,Anbang Yao,Qifeng Chen

        機構:香港科技大學,intel實驗室

        簡介:盡管卷積神經網絡(CNNs)具有強大的建模能力,但它往往具有尺度敏感性。為了提高cnn對尺度方差的魯棒性,在現有的解決方案中,基于不同層次或濾波器的多尺度特征融合受到了廣泛的關注,而忽略了更細粒度的核空間。我們通過在更細的粒度中利用多尺度特性來彌補這一遺憾。所提出的卷積運算稱為多尺度卷積(PSConv),它混合了膨脹率的頻譜,并巧妙地將其分配到每個濾波器關于單個卷積層的各個卷積核中。具體地說,膨脹率沿著濾波器的輸入和輸出通道的軸周期性地變化,以一種簡潔的方式將各種尺度上的特征聚集起來。PSConv可能是許多主流CNN主干網中香草卷積的一個替代品,允許在不引入額外參數和計算復雜性的情況下進行更好的表示學習。在ImageNet和MS-COCO基準測試上的綜合實驗驗證了PSConv的優越性能。

        圖像分類

        1 Learning To Classify Images Without Labels

        作者:Van Gansbeke Wouter,Vandenhende Simon,Georgoulis Stamatios,Proesmans Marc,Van Gool Luc

        機構:KU Leuven/ESAT-PSI,蘇黎世聯邦理工學院

        簡介:有沒有可能在不使用地面真相注釋的情況下自動分類圖像?或者,即使是類本身,也不是先驗知識嗎?這些仍然是計算機視覺中的重要問題。有幾種方法試圖以端到端的方式解決這個問題。在本文中,作者偏離了最近的工作,提出了一種將特征學習和聚類分離的兩步方法。首先,利用表征學習中的自監督任務來獲得語義上有意義的特征。第二,在可學習的聚類方法中,使用所獲得的特征作為先驗。在這樣做的時候,去除了集群學習依賴于低級特征的能力,這是當前端到端學習方法中存在的。實驗結果表明,本文的分類準確率大大超過了現有的分類方法,特別是CIFAR10為+26.9%,CIFAR100-20為+21.5%,STL10為+11.7%。此外,在ImageNet上的結果表明,本文的方法是第一個能夠很好地擴展到200個隨機選擇的類,獲得69.3%的top-1和85.5%的top-5準確率,并且在完全監督的方法下,差異小于7.5%。

        <上一頁  1  2  
        聲明: 本文由入駐維科號的作者撰寫,觀點僅代表作者本人,不代表OFweek立場。如有侵權或其他問題,請聯系舉報。

        發表評論

        0條評論,0人參與

        請輸入評論內容...

        請輸入評論/評論長度6~500個字

        您提交的評論過于頻繁,請輸入驗證碼繼續

        暫無評論

        暫無評論

          人工智能 獵頭職位 更多
          掃碼關注公眾號
          OFweek人工智能網
          獲取更多精彩內容
          文章糾錯
          x
          *文字標題:
          *糾錯內容:
          聯系郵箱:
          *驗 證 碼:

          粵公網安備 44030502002758號

          主站蜘蛛池模板: 一本大道东京热av无码| 松江区| 国产xxxxx| 成人自拍偷拍| 黄色视频在线观看18| 国产精品AV在线观看| 天堂在线V| 国产视频拍拍拍| 思茅市| 伊人av网| 亚洲欧美?va天堂人熟伦| 国产在线网址| 屁屁影院国产第一页| 人妻少妇视频| 国产xxxxxxx| 久久凹凸视频| 亚洲天堂高清| 醴陵市| 醴www,亚洲熟女,Com| 准格尔旗| 亚洲中文字幕2022| 峨边| 青青草论坛| 国产成人无码A片免费看| www.色色资源| 又粗又大网站| 亚洲中文字幕av| 影音先锋资源在线| 亚洲AV日韩精品| 久久天天躁狠狠躁夜夜躁2014| 亚洲多毛视频| 欧美成人综合| 丝袜制服无码国产| 国产成人精品麻豆| 防城港市| 性欧美高清| 伊人久久五月| AV探花| 熟妇与黑人一区二区三区乱码| 99r精品在线| 广安市|