今日,一年一度的CVPR在美國拉斯維加斯召開。據(jù)悉,這場被認(rèn)為是“計算機(jī)視覺和模式識別領(lǐng)域頂級學(xué)術(shù)會議”的大會將于美國西部時間6月26日至7月1日召開。
CVPR,是IEEE Conference on Computer Vision and Pattern Recognition的縮寫,即IEEE國際計算機(jī)視覺與模式識別會議。CVPR作為世界頂級的計算機(jī)視覺會議(三大頂會之一,另外兩個是ICCV和ECCV),每年都吸引千余名來訪者參與會議,收錄的論文數(shù)量一般在300篇左右。
CVPR會議上,眾多高新企業(yè)悉數(shù)亮相,其中包括微軟、Uber、亞馬遜、HERE地圖等,值得一提的是,此次參會的中國企業(yè)又創(chuàng)一新高,如百度、大疆、專注人臉識別的Face++、商湯科技、美圖影像實驗室,AR企業(yè)亮風(fēng)臺以及騰訊等等。
會議上都能看到啥?
給機(jī)器“看電視劇”預(yù)測人類行為
CVPR2016上,麻省理工學(xué)院計算機(jī)科學(xué)和人工智能實驗室(CSAIL)將發(fā)布一份關(guān)于可預(yù)測人類行為的算法的研究報告。通過給此算法導(dǎo)入近600小時的電視秀(其中包括《生活大爆炸》《絕望主婦》《辦公室》等劇集),來測試機(jī)器是否能準(zhǔn)確預(yù)測人類在各場景互動中的行為。此次實驗數(shù)據(jù)是人工智能“預(yù)測想象力”技術(shù)的顯著進(jìn)步。
基于深度學(xué)習(xí)的手勢識別:能夠用于VR交互
來自于美國普渡大學(xué)C Design 實驗室的研究成果——DeepHand(深度手勢識別),基于“深度學(xué)習(xí)”解析人手塑造的角度和扭曲等動作,這是一個新的突破,可以在未來加強VR設(shè)備的交互上有廣泛應(yīng)用前景。
微軟全息傳動技術(shù):HoloPortation
HoloPortation將人物全息圖像投射到另一個房間,使該房間內(nèi)的人可以和全息影像實時互動,系統(tǒng)通過追蹤人物身體的高質(zhì)量細(xì)節(jié),重建每一個特征。
人工智能為視頻配音:機(jī)器人感知世界又進(jìn)一步
對于機(jī)器人而言,它們需要對周遭的一系列事件進(jìn)行一種感知和預(yù)判。人類慣于使用聲音作為感知世界的一個手段,機(jī)器人也能夠一樣嗎?來自麻省理工大學(xué)實驗室的團(tuán)隊(CSAIL)研發(fā)了一種算法,能夠通過識別視頻中的場景和動作為視頻配音,效果幾乎以假亂真。這似乎證明機(jī)器人對真實世界的認(rèn)知又上升了一個臺階。
{{item.content}}