計算機視覺頂級會議ICCV 2017 騰訊優(yōu)圖入選12篇論文,含3篇Oral

被譽為計算機視覺領域三大頂級會議之一的ICCV(另外兩個為CVPR、ECCV)近日揭曉收錄論文名單,騰訊優(yōu)圖共有12篇論文入選,居業(yè)界實驗室前列,其中3篇被選做口頭報告(Oral),該類論文僅占總投稿數(shù)的2.1%(45/2143)。

本屆 ICCV 共收到2143篇論文投稿,其中621篇被選為大會論文,錄用比例29%。其中有45篇口頭報告(Oral)和56篇亮點報告(Spotlight)。今年參會人數(shù)預計將超過3000人,可見其火爆程度。

ICCV作為計算機視覺領域最高級別的會議之一,其論文集代表了計算機視覺領域最新的發(fā)展方向和水平。此次騰訊優(yōu)圖入選的論文提出了諸多亮點:全球首個AI卸妝效果的算法;現(xiàn)今最準確的單張圖像深度估計算法;完美解決多幀信息融合困難的多幀超分辨率視頻結果;史無前例的手機雙攝圖像匹配和分割研究成果。這些論文呈現(xiàn)了有趣且可擴展應用的技術,讓視覺AI成為了一個工業(yè)界和學術界的交叉熱點。其中,騰訊優(yōu)圖的智能卸妝超分辨率、雙攝融合、濾鏡還原和智能圖像縮放都是具有極大應用前景的技術。它們創(chuàng)造出新應用的同時也改進了現(xiàn)有算法,為后續(xù)的研究提供了更多的經(jīng)驗和指導。

下面我們將對騰訊優(yōu)圖12篇入選論文進行解析,也邀請大家在ICCV的現(xiàn)場與我們進一步交流與討論。

騰訊優(yōu)圖12篇入選論文詳解

1. Oral論文:美化人像的盲復原

Makeup-Go: Blind Reversion of Portrait Edit

本文與香港中文大學合作完成。目前市面上有很多關于人臉美化的應用,如騰訊天天P圖等。由于這些應用的流行,網(wǎng)絡上的人像很多與真人不符。本文提出一種圖像盲復原的算法,用于將美化過的人像復原為真實的人像。為了簡化問題,本文著重闡述如何解決全局美化操作的復原問題,例如膚色美白,去皺,磨皮等。由于這些操作是在圖像的不同尺度上完成的,而我們又無法得到人臉美化應用中所使用的操作類型和參數(shù),直接使用現(xiàn)有的模型并無法解決這個問題。我們提出了一種新的深度網(wǎng)絡結構,成分回歸網(wǎng)絡,來對美化圖像進行盲復原。即使在不知道美化系統(tǒng)具體參數(shù)的情況下,該網(wǎng)絡結構亦能更好地將美化后的圖像映射為原始圖像。實驗表明,該網(wǎng)絡在不同尺度上均可以得到較高的還原度。

*本文入選ICCV 2017 口頭報告(Oral),該類論文僅占總投稿數(shù)的2.1%。

2. Oral論文:細節(jié)還原深度視頻超分辨率

Detail-revealing Deep Video Super-resolution

本論文與香港中文大學、多倫多大學和Adobe合作完成。本論文關注解決視頻超分辨率的問題,即利用視頻中低分辨率的多幀信息,恢復出清晰而真實的高分辨率圖像。傳統(tǒng)的超分辨率算法處理速度慢,恢復效果嚴重依賴于繁瑣的參數(shù)調(diào)整,因此難以實用。近期的基于深度學習的算法則由于運動估計不夠準確,難以恢復足夠豐富的真實細節(jié)。

本文作者從原理和實驗上發(fā)現(xiàn)并指出:正確的運動估計對于圖像細節(jié)恢復至關重要,并基于此設計了亞像素運動補償網(wǎng)絡層SPMC Layer。本文提出的適用于視頻超分辨率的網(wǎng)絡結構能夠實現(xiàn):單模型處理任意尺寸輸入,任意倍率放大,任意多幀處理。同時,本文算法能夠在取得豐富的真實細節(jié)情況下,達到很快的處理速度(百倍于同等效果的傳統(tǒng)方法)。本文算法在效果、速度和實用性上均能超過現(xiàn)有其他算法。

*本文入選ICCV 2017 口頭報告(Oral),該類論文僅占總投稿數(shù)的2.1%。

3. Oral論文:基于圖的RGBD圖像分割網(wǎng)絡

3D Graph Neural Networks for RGBD Semantic Segmentation

本論文與香港中文大學、多倫多大學合作完成。本論文專注解決RGBD圖像的語義分割問題。與比較常見的RGB圖像分割問題相比,這個問題又有了深度的信息。深度信息能夠表征物體的幾何形狀,并且能夠更精確的描述像素件的幾何鏈接。因此如何利用深度信息做到更精確的圖像分割成為這個問題最核心的模塊。在此之前的方法都是先將深度圖編碼成HHA圖像,然后再把HHA圖當作另外一張圖像并輸入到神經(jīng)網(wǎng)絡里抽取特征。這種方法在本質(zhì)上還是一個基于2D的解決思路,無法更好的融合點之間在真實空間的聯(lián)系,并不能使得到的結果很好的利用深度信息。本文作者提出在把深度信息轉化為點真實的三維坐標,然后建立基于點實際坐標的knn 圖。并且利用基于圖的神經(jīng)網(wǎng)絡,能夠讓圖像特征可以根據(jù)knn圖相互迭代更新每個點的特征。最后再利用分類網(wǎng)絡對更新過的特征進行分類完成圖像RGBD圖像分割的問題。本文算法在效果上超過現(xiàn)在的基于2d卷積的方法,體現(xiàn)了該方法利用幾何信息完成特征迭代更新的有效性。

*本文入選ICCV 2017 口頭報告(Oral),該類論文僅占總投稿數(shù)的2.1%。

4. Poster論文:高質(zhì)量的手機雙攝圖像匹配和分割估計

High-Quality Correspondence and Segmentation Estimation for Dual-Lens Smart-Phone Portraits

本文提出了一個高質(zhì)量的手機雙攝圖像匹配以及分割的算法。同時解決了圖像匹配和物體分割這兩大計算機視覺里的難題。隨著雙攝逐漸成為手機的標配,怎樣更好的匹配雙攝圖像一直以來都是學術界和工業(yè)界關心的問題。為了解決這一難題,作者提出了一種聯(lián)合優(yōu)化匹配和分割的框架,為了讓優(yōu)化高效,還提出了一種區(qū)域的匹配算法。作者建立了一個2000對雙攝圖像的數(shù)據(jù)集用于算法的評估和測試。

5. Poster論文:立體匹配的無監(jiān)督機器學習

Unsupervised Learning of Stereo Matching

本論文與香港中文大學合作完成,主要提出了全新的立體匹配(Stereo Matching)的無監(jiān)督學習(Unsupervised Learning)框架。深度神經(jīng)網(wǎng)絡在立體匹配問題中被廣泛應用,與傳統(tǒng)方法相比較下,精度和效率都有顯著的提高。然而現(xiàn)有的方法大多基于有監(jiān)督學習(Supervised Learning),另外少有的一些通過無監(jiān)督學習得到的模型的精度也不甚理想。

在這篇論文中,作者提出了一種簡單又高效的對立體匹配問題的無監(jiān)督學習方法。通過左右一致性檢測,此方法在每一次迭代中都會篩選出正確的匹配。這些正確的匹配會被用作下一次迭代的訓練數(shù)據(jù)。經(jīng)過數(shù)次迭代,此方法收斂到穩(wěn)定狀態(tài)。實驗結果證明了此方法的精度遠優(yōu)于現(xiàn)有的無監(jiān)督方法,且十分接近有監(jiān)督方法。

6. Poster論文:基于零階優(yōu)化的圖像濾鏡還原

Zero-order Reverse Filtering

本論文與香港中文大學、多倫多大學和Adobe合作完成。在圖像處理領域,研究者們設計了種類的繁多的濾鏡用來消除噪聲,去除紋理等。本文另辟蹊徑,首次提出并探討了濾鏡問題的一個新方向:能否恢復經(jīng)過圖像濾鏡處理之后的圖片?

通過對圖像濾鏡過程的分析,本文作者發(fā)現(xiàn)傳統(tǒng)平滑濾鏡可以近似看做測度理論中的壓縮映射。因此,在無需知道濾鏡實現(xiàn)算法的情況下,用簡單地零階迭代算法便可以恢復濾鏡前的效果。作者在常用的數(shù)十種濾鏡上測試了算法,并均能取得很好的效果。本算法本身實現(xiàn)簡單(無需知道濾鏡算法,無需計算梯度),效果顯著,其揭示的現(xiàn)象和背后的原理有望引起后續(xù)研究者們對濾鏡算法領域新的理解。

7. Poster論文:基于圖模型神經(jīng)網(wǎng)絡的情景識別

Situation Recognition with Graph Neural Networks

本論文與香港中文大學和多倫多大學合作完成,作者提出了一種基于圖模型的神經(jīng)網(wǎng)絡用于情景識別任務。在情景識別任務中,算法需要同時識別圖中所展示的動作以及參與完成這個動作的各種角色,比如主語、賓語、目標、工具等等。為了顯式地對不同角色間的關系建模,文中提出的圖模型神經(jīng)網(wǎng)絡將表示不同角色的節(jié)點連接在了一起,并通過信息傳遞的方式使得網(wǎng)絡可以輸出一個結構化的結果。作者在實驗中比較了不同的連接方式,比如線形結構,樹形結構和全連接結構,發(fā)現(xiàn)在情景識別任務中全連接結構的效果最好。最后,文中還展示網(wǎng)絡所學習到的對于不同動作的特有的連接結構。上圖所示的結果圖,比較了不同模型的檢測結果。其中藍底的表示參與動作的角色,綠底表示正確的預測結果,紅底表示錯誤的預測結果。我們可以看到,使用全連接圖模型能夠糾正一些由其他模型產(chǎn)生的錯誤。

8. Poster論文:基于序列性組合深度網(wǎng)絡的實例分割

Sequential Grouping Networks (SGN) for Instance Segmentation

本論文與香港中文大學,多倫多大學和Uber合作完成。實例分割是比物體檢測和語義分割更進一步的識別任務,旨在為圖中每個實例都提供一個像素級別的掩膜,既保持了區(qū)分不同實例的能力,又保證了定位實例的精確性。該任務在自動駕駛,機器人等領域有廣闊的應用前景。

在本論文中,作者提出了一種全新的方式,通過一組序列性的不同的深度網(wǎng)絡逐步將一些低級的元素不斷組合成更加復雜的結構,最終得到每個實例對應的掩膜。該方法同時解決了一些早期工作中自下而上的方法會把被隔斷的物體錯判為多個物體的問題。該方法在兩個數(shù)據(jù)集上都取得了比早期工作更好的結果。

9.Spotlight論文:基于弱監(jiān)督和自監(jiān)督的深度卷積神經(jīng)網(wǎng)絡圖片縮放算法

Weakly- and Self-Supervised Learning for Content-Aware Deep Image Retargeting

本論文與韓國KAIST大學一起合作。隨著數(shù)字顯示設備的普及,隨之而來的一個問題就是同一張圖片在不同分辨率設備上顯示效果的適應性問題。傳統(tǒng)的線性縮放,或是簡單裁剪等方法會帶來諸如圖片內(nèi)容扭曲、內(nèi)容丟失等負面效果。

作者提出了一種利用弱監(jiān)督和自監(jiān)督深度卷積神經(jīng)網(wǎng)絡(WSSDCNN)來進行圖片縮放的算法。該算法通過建立一個在輸入圖片與目標分辨率圖片之間像素級別的映射,旨在對圖片大小進行調(diào)整的同時,盡量保留圖片中重要語義信息的比例結構,從而避免了內(nèi)容扭曲、內(nèi)容丟失等傳統(tǒng)方法的缺陷,在最大程度上保持了圖片顯示效果的一致性。

10. Poster論文:分區(qū)域多人姿態(tài)識別算法

RMPE: Regional Multi-Person Pose Estimation

本論文與上海交通大學合作完成。自然場景下的多人姿態(tài)識別一直都是計算機視覺領域中較難攻克的課題之一。盡管目前人物檢測的算法已經(jīng)十分穩(wěn)定,但微小的誤差仍然很難避免。

針對在人物檢測結果不準的情況下進行穩(wěn)定的多人姿態(tài)識別這一問題,作者提出了一種全新的解決方案——分區(qū)域多人姿態(tài)識別算法(RMPE)。該算法綜合利用了對稱性空間遷移網(wǎng)絡(Symmetric Spatial Transformer Network)和單人姿態(tài)估計算法,從而擺脫了多人姿態(tài)識別任務對人物檢測準確性的依賴,并且進一步通過參數(shù)化的人物姿態(tài)表達對識別結果進行了優(yōu)化。根據(jù)在公開數(shù)據(jù)集MPII上的測試結果,該算法相較CMU提出的OpenPose算法提升了1個百分點,尤其是對手肘、手腕、膝蓋、腳踝等細小關鍵點的改善尤為明顯。

11. Poster論文:學習判別判別數(shù)據(jù)擬合函數(shù)來做圖像的去模糊

Learning Discriminative Data Fitting Functions for Blind Image Deblurring

本論文與南京科學技術大學,大連理工大學和加州大學默塞德分校合作完成。本論文是關于一個用數(shù)據(jù)擬合函數(shù)來解決圖像的去模糊問題。圖像去模糊是一個經(jīng)典的計算機視覺問題,需要合理定義數(shù)據(jù)擬合函數(shù)和圖像先驗知識。但是目前的大部分算法都是通過更好的定義圖像先驗來提高去模糊的效果,對數(shù)據(jù)擬合函數(shù)的研究比較少。本文提出了一種機器學習方法來學習模糊圖像和清晰圖像之間的關系,從而得到更好的數(shù)據(jù)擬合函數(shù)。該擬合函數(shù)能進一步幫助估計更加準確的模糊核。該算法在非常難的去模糊圖像數(shù)據(jù)集中得到了最好結果。

12. Poster論文:利用已知物體和物質(zhì)信息遷移的弱監(jiān)督物體檢測算法

Weakly Supervised Object Localization Using Things and Stuff Transfer

本論文與愛丁堡大學合作完成。本論文關注弱監(jiān)督的物體檢測問題并利用已知物體(可數(shù))和物質(zhì)(不可數(shù))信息遷移來提供幫助。弱監(jiān)督物體檢測的目標集合的中物體位置信息未知,而源集合中對應的物體和物質(zhì)的信息包括位置、標記等則已知。源集合和目標集合中的物體類別有一定的相似性,比如外形相似或者擁有共同物質(zhì)背景。

為了遷移利用這種相似性,本文作者從源集合中獲取三種信息:一個分割模型;源集合與目標集合物體類別之間相似度;源集合中物體與物質(zhì)類別之間的共生性。作者緊接著利用分割模型對目標集合圖片首先做圖像分割,同時利用物體物質(zhì)類別之間的相似度和共生性來修正分割結果。修正后結果被嵌入到多物體檢測框架中聯(lián)合訓練并檢測目標集合中的物體。本文算法效果在公開數(shù)據(jù)集上超過其他現(xiàn)有弱監(jiān)督物體檢測算法。同時本文特別選擇了目標集和源集合差別很大的物體類別進行測試,顯示本文遷移算法具有很強大的泛化能力。

帶你一分鐘了解ICCV

ICCV全稱為International Conference on Computer Vision(國際計算機視覺大會),由美國電氣和電子工程師學會(IEEE,Institute of Electrical & Electronic Engineers)主辦。作為世界頂級的學術會議,首屆國際計算機視覺大會于1987年在倫敦揭幕,其后兩年舉辦一屆。今年ICCV將于10月 22 日到 29 日在意大利威尼斯舉辦。

ICCV作為計算機視覺領域最高級別的會議之一,是中國計算機學會推薦的A類會議。其論文集代表了計算機視覺領域最新的發(fā)展方向和水平。會議的論文收錄率較低,影響力遠超一般SCI期刊,大致與中科院JCR分區(qū)1區(qū)和Web of Science的JCR分區(qū)Q1中靠前的學術期刊相當。


免責聲明:本網(wǎng)站內(nèi)容主要來自原創(chuàng)、合作伙伴供稿和第三方自媒體作者投稿,凡在本網(wǎng)站出現(xiàn)的信息,均僅供參考。本網(wǎng)站將盡力確保所提供信息的準確性及可靠性,但不保證有關資料的準確性及可靠性,讀者在使用前請進一步核實,并對任何自主決定的行為負責。本網(wǎng)站對有關資料所引致的錯誤、不確或遺漏,概不負任何法律責任。任何單位或個人認為本網(wǎng)站中的網(wǎng)頁或鏈接內(nèi)容可能涉嫌侵犯其知識產(chǎn)權或存在不實內(nèi)容時,應及時向本網(wǎng)站提出書面權利通知或不實情況說明,并提供身份證明、權屬證明及詳細侵權或不實情況證明。本網(wǎng)站在收到上述法律文件后,將會依法盡快聯(lián)系相關文章源頭核實,溝通刪除相關內(nèi)容或斷開相關鏈接。

2017-10-19
計算機視覺頂級會議ICCV 2017 騰訊優(yōu)圖入選12篇論文,含3篇Oral
被譽為計算機視覺領域三大頂級會議之一的ICCV(另外兩個為CVPR、ECCV)近日揭曉收錄論文名單,騰訊優(yōu)圖共有12篇論文入選,居業(yè)界實驗室前列,其中3篇被選做口頭報告(Oral),該類論文僅占總投稿數(shù)的2 1%(45 2143)。本屆 ICCV 共收到2143篇論文投稿,其中621篇被選為大會論文,錄

長按掃碼 閱讀全文