ECCV 2020 | 云端參會攻略之Oral篇,前排占位、強(qiáng)勢圍觀!
在三維曲面重建方面,來自澳大利亞國立的研究人員提出了一種DeepFit的方法,通過神經(jīng)網(wǎng)絡(luò)加權(quán)的最小二乘來擬合曲面。神經(jīng)網(wǎng)絡(luò)為每一個點(diǎn)提供了權(quán)重作為鄰域點(diǎn)的柔性,避免了先前方法中的尺度需求。同時提出了表面連續(xù)性損失來改進(jìn)權(quán)重估計(jì)。這種方法可以有效抽取表面法向量和曲率等幾何特征。下圖顯示了法向量和曲率的估計(jì)流程,針對每一個點(diǎn)都可以計(jì)算出全局和局部的表示,并估計(jì)出逐點(diǎn)的權(quán)重結(jié)果,隨后通過解最小二乘法方法來擬合n-jet。
在時尚領(lǐng)域,康奈爾、谷歌和Hearst Magazines提出了Fashionpedia數(shù)據(jù)集,包含了本體、分割、屬性定位等豐富的數(shù)據(jù)資源。
來自港中文、深圳大數(shù)據(jù)研究院、浙大、西安交大、騰訊和中科大的研究人員們提出了用于三維服飾時尚重建的Deep Fashion3D數(shù)據(jù)集,包含了2078個模型重建數(shù)據(jù)、覆蓋了10個不同的類別和563種實(shí)例。
針對行人的相關(guān)研究,來自伯克利、南京大學(xué)和Facebook的研究人提出了基于場景上下文的長時行人運(yùn)動軌跡預(yù)測,在給定單圖場景和2D位置歷史的基礎(chǔ)上,可以預(yù)測出人體行為受到場景的長期影響。下圖顯示了場景中人體行為的預(yù)測結(jié)果。
來自佐治亞理工、威斯康辛麥迪遜、德國馬普研究所和圖賓根大學(xué)的研究人員提出了預(yù)測人體與場景中目標(biāo)的交互過程,通過將手的意圖特征編碼到網(wǎng)絡(luò)中與輸入圖像共同預(yù)測交互的目標(biāo)。
此外針對圖像修復(fù)和圖像質(zhì)量提升方面,來自港中文、南洋理工、港大的研究人員提出了利用深度生成先驗(yàn)來對圖像進(jìn)行修復(fù)和操作,基于大規(guī)模自然圖像數(shù)據(jù)集訓(xùn)練的生成模型來捕捉圖像先驗(yàn),為各種退化過程的修復(fù)提供了良好的保障。
北京大學(xué)、微軟亞洲研究院和多倫多大學(xué)的研究人員針對縮放圖像信息丟失問題提出了一種新的視角為縮放與上采樣進(jìn)行建模,構(gòu)建了可逆的雙射過程。提出了可逆縮放網(wǎng)絡(luò)來提升低分辨圖像效果,并捕捉下采樣過程中的信息丟失,使得尺度縮放過程變得可回溯。

發(fā)表評論
請輸入評論內(nèi)容...
請輸入評論/評論長度6~500個字
最新活動更多
-
即日-9.16點(diǎn)擊進(jìn)入 >> 【限時福利】TE 2025國際物聯(lián)網(wǎng)展·深圳站
-
10月23日火熱報名中>> 2025是德科技創(chuàng)新技術(shù)峰會
-
10月23日立即報名>> Works With 開發(fā)者大會深圳站
-
10月24日立即參評>> 【評選】維科杯·OFweek 2025(第十屆)物聯(lián)網(wǎng)行業(yè)年度評選
-
11月27日立即報名>> 【工程師系列】汽車電子技術(shù)在線大會
-
12月18日立即報名>> 【線下會議】OFweek 2025(第十屆)物聯(lián)網(wǎng)產(chǎn)業(yè)大會
推薦專題
- 1 先進(jìn)算力新選擇 | 2025華為算力場景發(fā)布會暨北京xPN伙伴大會成功舉辦
- 2 人形機(jī)器人,正狂奔在批量交付的曠野
- 3 宇樹機(jī)器人撞人事件的深度剖析:六維力傳感器如何成為人機(jī)安全的關(guān)鍵屏障
- 4 解碼特斯拉新AI芯片戰(zhàn)略 :從Dojo到AI5和AI6推理引擎
- 5 AI版“四萬億刺激”計(jì)劃來了
- 6 騰訊 Q2 財報亮眼:AI 已成第二增長曲線
- 7 2025年8月人工智能投融資觀察
- 8 9 Manus跑路,大廠掉線,只能靠DeepSeek了
- 10 a16z最新AI百強(qiáng)榜:硅谷頂級VC帶你讀懂全球生成式AI賽道最新趨勢