盤點2018年計算機視覺領(lǐng)域技術(shù)突破

因而,Video-to-Video Synthesis也被看作是在過去幾年中,視頻領(lǐng)域的一次重大突破,畢竟從靜態(tài)框架轉(zhuǎn)換為動態(tài)框架的難度是很大的,但機器訓練卻在盡量模擬預測視頻將會發(fā)生的情景,通過給定的輸入視頻學習映射函數(shù),產(chǎn)生仿真度極高的視頻內(nèi)容。
本文引用地址:http://www.ljygm.com/article/201901/396390.htmFast.ai18分鐘訓練ImageNet
在普遍認知還停留在需要大量計算資源來執(zhí)行適當?shù)纳疃葘W習任務(wù)時,F(xiàn)ast.ai通過使用16個公共AWS云實例,每個配備8個NVIDIA V100 GPU,運行fast.ai和PyTorch,用18分鐘在ImageNet上將圖像分類模型訓練到了93%的準確率,刷新了一個新的速度記錄。

這是一個令人驚喜的結(jié)果,尤其在公共基礎(chǔ)設(shè)施上訓練ImageNet能達到這種準確性,并且比其專有TPU Pod群集上的谷歌DAWNBench記錄快40%,運行成本僅約為40美元。這意味著一個關(guān)鍵的里程碑出現(xiàn)了,幾乎所有人都可以在一個相當大的數(shù)據(jù)集上訓練大規(guī)模神經(jīng)網(wǎng)絡(luò)。
除了這些重要的節(jié)點之外,2018年的計算機視覺技術(shù)也部署更多方面,不論是亞馬遜發(fā)布Rekognition將計算機視覺置于開發(fā)人員、微軟為OneDrive和SharePoint推出了新的AI服務(wù)、Google相冊讓我們的記憶變得可搜索、還是每個場景下都正在逐漸普及的AI人臉識別等等,計算機視覺正在逐步滲透到我們生活的每個部分。
最后,最值得注意的是,計算機視覺的市場增長幾乎與其技術(shù)能力的增長是一樣快的,預計到 2025年,計算機視覺領(lǐng)域會帶來超過262億美元的收益,因而在人工智能的未來里,計算機視覺一定是最有力的表現(xiàn)形式,并將隨處可見。
評論