国产无码免费,人妻口爆,国产V在线,99中文精品7,国产成人无码AA精品一,制度丝袜诱惑av,久久99免费麻辣视频,蜜臀久久99精品久久久久久酒店
        訂閱
        糾錯
        加入自媒體

        Meta猛攻CV,發布超強SAM摳圖模型,可拯救元宇宙?

        巨頭們正在 AIGC 領域上激戰,Meta在“計算機視覺(Computer vision,CV)”領域有了大動作。

        本周三,Meta 研究部門發布了一篇名為其 “Segment Anything(分割一切)”的論文,文中介紹了一個全新的 Segment Anything Model(即SAM),可以用于識別圖像和視頻中的物體,甚至是從未被 AI 訓練過的物品。

        所謂的“圖像分割”,通俗來講就是摳圖。Meta此次所展示的 AI 摳圖能力,被認為是計算機視覺的 “GPT-3 時刻”,強到 CV 工作者直呼:AI 來搶飯碗,準備下崗了。

        強在哪里?

        如果你親自嘗試過摳圖,即使借助了市面上較為成熟的“智能摳圖”工具,你依然發現,想把照片摳得快、摳得準、摳得自然是件費時費力的事。

        Meta此次發布的 SAM 給出了近乎完美的解決方案。

        SAM 的第一項重大突破在于“識別速度和精度”有了顯著提升,而速度和精度是計算機視覺領域的經典且復雜的任務。

        SAM 的另一驚艷點在于,它并不局限于訓練過的數據集,在遇到從未見過的物品和形狀,SAM 也能將其準確識別并分割出來。

        此外,SAM 支持用戶使用交互性方式分離物體。比如經鼠標定位自動識別物體輪廓。即使是顏色非常相近、甚至連人眼都難以快速分辨的倒影,SAM 都能非常準確的找出輪廓邊線。

        用戶還可通過“關鍵字查詢”,SAM 可監測并標記出這個圖片中的搜索對象。

        還能支持對圖片上物品的編輯。比如,識別出一張圖片上模特的服飾,摳出來便可以改變顏色和尺碼大小。

        SAM 不僅僅能處理靜態圖片,還可以對動圖、視頻中的取片進行準確識別,并快速標記、統計出品類、大小和顏色等信息。

        從靜態圖片中“摳”出來的椅子,進行3D渲染和編輯,讓它動起來,還可以繼續改變形狀等創意操作。

        未來,這一技術將和 Meta 的 AR/AR 頭顯進行廣泛結合,助力元宇宙,將電影中的鋼鐵俠頭盔將推向生活場景。

        將有更大應用空間

        SAM 發布之后,很多人第一時間進行了實測,一些網友還結合自身的工作領域打開了 SAM 更廣的應用想象空間。

        自然科學研究者——將SAM和衛星圖像結合在了一起,表示SAM能夠很好的識別和找到他標記的風貌類型。

        神經外科影像學從業者——將SAM用到了一個脊髓血管病的病例文件之中,認為SAM在幫助判斷和分析病情上有很大幫助。

        生物學家——輸入一張顯微鏡下的組織圖片,即使圖中形狀特征毫無規律,SAM也能夠自動識別多細胞結構中的腺體、導管、動脈等,SAM 在未來能夠節省大量手動注釋的時間。

        騎行愛好者——將地圖和SAM結合起來,認為能夠幫助自己未來更快更高效地給地圖做標記。

        農場管理者——借助 SAM 監管農場動物,進行作物培植生產研究等。

        AI研究專家——英偉達人工智能科學家 Jim Fan 表示 SAM 已經基本能夠理解“物品”的一般概念,即使對于未知對象、不熟悉的場景(例如水下和顯微鏡里的細胞)。

        SAM 之于計算機視覺,就像是 GPT 之于大語言模型。

        論文解讀

        在 Meta 的論文《Segment Anything》中,新模型全名為Segment Anything Model,圖像注釋集名為Segment Anything 1-Billion (SA-1B),據稱這是有史以來最大的分割數據集。

        論文地址:https://arxiv.org/abs/2304.02643

        此前解決分割問題大致有兩種方法。第一種是交互式分割,第二種是自動分割。前者需要人通過迭代完善一個遮罩來指導模型,后者需要大量的手動注釋對象來訓練。兩種方法都無法實現全自動的圖像分割。SAM 很好的概括了這兩種方法,可以輕松地執行交互式分割和自動分割。

        本篇論文中,研發人員提到了SAM 的靈感來源于自然語言處理領域。在 NLP 領域,基礎模型可以使用prompting技術對新數據集和任務執行零樣本和少樣本學習。

        而在CV領域,具體到 SAM 中,研究人員訓練的 SAM 可以針對任何提示返回有效的分割掩碼。提示可以是前景、背景點、粗框或掩碼、自由格式文本等等能指示圖像中要分割內容的任何信息。

        在Web瀏覽器中,SAM有效映射圖像特征和一組提示嵌入來生成分割掩碼

        除了新模型 SAM,Meta還發布了迄今為止最大的分割數據集 SA-1B。

        數據集由 SAM 收集,此數據集已是迄今為止最大的數據。注釋員使用 SAM 交互式地注釋圖像,然后新注釋的數據反過來更新 SAM,重復執行此循環來改善模型和數據集。

        SA-1B 圖像數據集包含超過11億個掩碼,這些掩碼是從1100萬張已經獲得許可、并且保護隱私的高分辨率圖像中收集的,這些圖像的分辨率達到了1500×2250 pixels,平均每張圖像約有100個掩碼。甚至可以媲美以前規模小得多、完全手動注釋的數據集中的掩碼。

        Meta 官方稱,通過在業內共享這項研究和數據集,進一步加速對分割圖像視頻的研究,為AR/VR、內容創作、科學領域和更普遍的 AI 系統等領域的強大組件,釋放出更加強大、通用的人工智能系統。


        聲明: 本網站所刊載信息,不代表OFweek觀點。刊用本站稿件,務經書面授權。未經授權禁止轉載、摘編、復制、翻譯及建立鏡像,違者將依法追究法律責任。

        發表評論

        0條評論,0人參與

        請輸入評論內容...

        請輸入評論/評論長度6~500個字

        您提交的評論過于頻繁,請輸入驗證碼繼續

        暫無評論

        暫無評論

          人工智能 獵頭職位 更多
          掃碼關注公眾號
          OFweek人工智能網
          獲取更多精彩內容
          文章糾錯
          x
          *文字標題:
          *糾錯內容:
          聯系郵箱:
          *驗 證 碼:

          粵公網安備 44030502002758號

          主站蜘蛛池模板: 国产乱人伦久久免费| 夊夊夊夂夂夂夂夂夂夂亚洲亚洲亚洲亚洲色色色 | 美女毛片| 国产一区二区波多野结衣| 古蔺县| 人妻无码中出| 沙湾县| 中文字幕日本有码| 亚洲成人综合社区| 色婷婷操| 婷婷五月在线视频| 一区二区三区精品| 制服丝袜国产日韩酒店大堂经理| 商水县| 青青草99| 午夜精品偷拍| 一本色道久久综合亚洲精东小说| 人妻丰满熟妇av无码区波多野| 岛国AV在线| 丁香婷婷中文字幕| 亚洲无码电影在线观看| 欧美丝袜你懂的| 宁武县| 日韩OL丝袜无码AV啪啪| 专区国产无码| 鄄城县| 久草视频网站| 撸撸狠| 亚洲123区| 人妻中文在线| 鄂托克旗| 志丹县| 中文字幕四区| 潜山县| 精品自拍网| 69avav?cn| 内射视频在线观看| 江孜县| 欧美v亚洲| 人妻无码专区| 不卡动漫av|