把測試環節放在第一位,免得你不在乎這個能力的意義。(下圖為修復后的作者本人。他不驚訝,也不會寫這個新聞。)
來自英國諾丁漢大學和金斯頓大學的一群AI研究人員最近創造了一種方法,讓AI只通過一張平面肖像就能創造出原始的三維模型。在研究人員將大量人臉數據輸入卷積神經網絡(CNN/卷積神經網絡)后,神經網絡本身學會了如何從一張從未見過的照片中猜出這個人的真實長相。
該小組在網站上公布了相關文件和代碼。下面是對這項技術的簡短介紹:
“三維人臉重建是計算機視覺中一個非常困難的基礎問題。當前的系統通常假設有多個面部圖像(有時來自同一對象)作為輸入,并且必須解決許多方法上的挑戰,例如大量面部手勢、表情和不均勻光照之間的對應。通常的方法需要復雜且低效的建模和匹配工作。
然而,在這個項目中,我們試圖用包括2D圖像和3D面部模型或掃描圖像在內的材料來訓練卷積神經網絡,以避免以前方法的瓶頸。現在我們的神經網絡只需要輸入單張二維人臉圖像,就可以重建出整個三維人臉模型,還可以識別任何面部姿勢和表情。"
在36Kr此前報道的《A16Z合作伙伴如何看待無人車的網絡效應》一文中,我們分析了計算機視覺對于自動駕駛技術非常重要,無人車只有知道自己在哪里,周圍的車輛和行人在做什么,周圍有什么信號,才能在路上安全行駛。目前,由于計算機視覺無法從大量2D照片中判斷路況,大多數無人駕駛車輛。公司還需要使用多種傳感器和高精度地圖為無人車導航。
但是現在,我們可以使用的測試揭示了計算機視覺發展的冰山一角。如果無人車能像人類一樣通過眼睛判斷路況,大部分無人車。公司發展路徑將被打亂,特斯拉——少數等待計算機視覺重大突破的無人車。公司一是正確的賭注。