電裝集團(tuán)推出56毫秒推斷行人朝向和距離新技術(shù)
電裝集團(tuán)開發(fā)出了利用單眼攝像頭,快速實(shí)時(shí)識(shí)別行人的身體朝向、身高以及與汽車的距離等多種信息的技術(shù)。已通過實(shí)驗(yàn)確認(rèn),在模擬車載設(shè)備的演示環(huán)境下,處理時(shí)間只需56毫秒。電裝打算將該技術(shù)應(yīng)用于汽車的ADAS(高級(jí)駕駛輔助系統(tǒng))。
處理圖像用的是英偉達(dá)的車用處理器“Tegra K1”
實(shí)現(xiàn)實(shí)時(shí)圖像識(shí)別的方法(右下部分)
識(shí)別多種特征時(shí),處理的數(shù)據(jù)量龐大,因此采用原來的方法難以進(jìn)行實(shí)時(shí)處理。電裝此次通過調(diào)整圖像數(shù)據(jù)的處理方法縮短了計(jì)算時(shí)間。同時(shí),計(jì)算量也降至原來的1/10左右,在計(jì)算能力有限的車載半導(dǎo)體上也可使用。
調(diào)整DNN,滿足ADAS的要求
該技術(shù)由電裝的子公司Denso IT Laboratory開發(fā)。圖像識(shí)別算法采用了深度學(xué)習(xí)的一種——DNN(Deep Neural Network,深度神經(jīng)網(wǎng)絡(luò))。
以前進(jìn)行圖像處理時(shí)采用的是方向梯度直方圖(HOG)和線性支持向量機(jī)(SVM)相組合的算法,但只能做出圖像中有沒有人這種簡(jiǎn)單判斷。不能并行求出多個(gè)特征量,因此無法確定行人朝向、與車輛的距離等行人的狀態(tài)和屬性。
新開發(fā)的圖像識(shí)別方法利用DNN并行處理圖像中的多種不同信息。改進(jìn)了名為“圖像金字塔”的方法,提高了處理速度。原來的圖像識(shí)別通過反復(fù)進(jìn)行20~30次左右的“縮小分辨率-識(shí)別”過程,確保識(shí)別精度。此次,通過將循環(huán)次數(shù)減少到2~3次,減少了計(jì)算量。
該公司研究開發(fā)部研究員佐藤育郎介紹說,“能夠以16~17幀/秒的速度(幀率)處理影像”。應(yīng)用于汽車ADAS時(shí),通常要求影像的幀率達(dá)到“10~15幀/秒左右”,此次的技術(shù)滿足了這一要求。
行人檢測(cè)以及基于攜帶手機(jī)等圖像特征的處理通過圖像識(shí)別進(jìn)行分類。行人與汽車之間的距離可通過確定行人站立位置,根據(jù)函數(shù)求出。身體朝向可根據(jù)角度的數(shù)值信息進(jìn)行判斷。電裝在2016年8月25日召開的記者說明會(huì)上進(jìn)行了演示,表明通過采用該技術(shù),可實(shí)時(shí)判斷行人朝向、身高及與汽車的距離。
佐藤說,采用該技術(shù),“甚至可以推測(cè)出年齡段及是否攜帶手機(jī)”。不過,做任何判斷都必須要有用于深度學(xué)習(xí)的“正確數(shù)據(jù)”。電裝集團(tuán)尚未建立起年齡段及有無手機(jī)等狀態(tài)的正確數(shù)據(jù),今后將建立這些數(shù)據(jù)。