面向視(shi)頻監控應用的(de)(de)智(zhi)能分析(xi)技(ji)(ji)術是(shi)一項覆蓋(gai)圖像(xiang)處(chu)理、計(ji)算(suan)機(ji)視(shi)覺、機(ji)器(qi)學(xue)習、概(gai)率統(tong)計(ji)、深(shen)度學(xue)習、并(bing)行計(ji)算(suan)與GPU 優化等多(duo)個領(ling)(ling)域(yu)的(de)(de)應用技(ji)(ji)術。這(zhe)些(xie)技(ji)(ji)術領(ling)(ling)域(yu)本身在不斷的(de)(de)發展(zhan)(zhan)當中,有(you)些(xie)發展(zhan)(zhan)還(huan)不是(shi)很(hen)完善(shan)。這(zhe)必然導致(zhi)視(shi)頻監控中的(de)(de)智(zhi)能分析(xi)技(ji)(ji)術也處(chu)于不斷發展(zhan)(zhan)的(de)(de)態勢。尤其進入(ru)2010 年代,隨(sui)著互聯(lian)網(wang)數據量爆炸式的(de)(de)增長,催生大數據和云計(ji)算(suan)技(ji)(ji)術的(de)(de)出現,尤其是(shi)把二(er)者(zhe)結合的(de)(de)深(shen)度學(xue)習技(ji)(ji)術發展(zhan)(zhan)的(de)(de)如(ru)火如(ru)荼(tu),在圖像(xiang)識別(bie)、視(shi)頻識別(bie)領(ling)(ling)域(yu)的(de)(de)應用帶來了革命性的(de)(de)更新(xin)。
遙想2005 年前(qian)后,視頻(pin)監控(kong)領域智能(neng)(neng)分(fen)析(xi)(xi)技(ji)(ji)(ji)術(shu)剛(gang)剛(gang)起步,采用(yong)(yong)傳統圖像處理技(ji)(ji)(ji)術(shu)和(he)(he)基于手工設計特征(zheng)訓練分(fen)類器,效果和(he)(he)性能(neng)(neng)不盡人意,同時客戶對(dui)智能(neng)(neng)分(fen)析(xi)(xi)技(ji)(ji)(ji)術(shu)沒有(you)(you)客觀(guan)的(de)認(ren)識(shi)(shi),有(you)(you)的(de)盲目樂觀(guan),也有(you)(you)的(de)盲目悲觀(guan),智能(neng)(neng)分(fen)析(xi)(xi)產品舉步維艱。經過10 年的(de)技(ji)(ji)(ji)術(shu)發(fa)展和(he)(he)市(shi)場培育,客戶對(dui)智能(neng)(neng)分(fen)析(xi)(xi)具(ju)有(you)(you)較(jiao)為客觀(guan)的(de)認(ren)識(shi)(shi)。智能(neng)(neng)分(fen)析(xi)(xi)應(ying)用(yong)(yong)從(cong)視頻(pin)監控(kong)行業的(de)輔助功(gong)能(neng)(neng)發(fa)展成(cheng)為安防行業的(de)本質需(xu)求,這與智能(neng)(neng)分(fen)析(xi)(xi)技(ji)(ji)(ji)術(shu)的(de)高(gao)速發(fa)展分(fen)不開(kai)的(de)。相信在未來的(de)一(yi)段時間內,智能(neng)(neng)分(fen)析(xi)(xi)技(ji)(ji)(ji)術(shu)的(de)發(fa)展更加迅速,在視頻(pin)監控(kong)行業的(de)應(ying)用(yong)(yong)形式(shi)和(he)(he)產品形態也會發(fa)生很大的(de)變化(hua)。
本文從傳統目標(biao)跟蹤(zong)算(suan)法(fa)和最(zui)新的深度卷積網絡(luo)算(suan)法(fa)兩個角度來展現智能(neng)分(fen)析技術的最(zui)新的發(fa)展。
CMT 跟蹤算法
CMT 跟蹤算法(fa)主(zhu)要由WACV(WinterConference on Applications of Computer Vision)2014 會(hui)(hui)議上(shang)的《Consensus-basedMatching and Tracking of Keypoints forObject Tracking 》和CVPR 2015 會(hui)(hui)議上(shang)的《Clustering of Static - Adaptive Correspondencesfor Deformable Object Tracking 》構成(cheng) 。并(bing)且在W A C V 2014 獲得最佳(jia)論文獎(jiang)項(xiang)(Best PaperAward)。由奧地利(li)技術(shu)學院的Georg Nebehay提出。
![](/res/201706/02/20170602_1618402_32-1_799332_140493_0.jpg)
(圖1)CMT 跟蹤算法流程框圖
CMT 跟蹤(zong)相比之前的(de)(de)TLD 算(suan)(suan)法性能提高許多(duo)。可以認為是TLD 之后的(de)(de)下一代跟蹤(zong)算(suan)(suan)法。TLD 算(suan)(suan)法使用整體模型(xing)進(jin)(jin)行跟蹤(zong)。CMD跟蹤(zong)的(de)(de)基本思路是能夠(gou)不斷(duan)檢(jian)(jian)測物體特征,并通過(guo)多(duo)種手段對檢(jian)(jian)測到的(de)(de)物體特征進(jin)(jin)行反復匹配驗(yan)證,實現高準確度跟蹤(zong),同時(shi)計(ji)算(suan)(suan)資源(yuan)又很節省,適合在前端相機段運行。
CMT 算(suan)(suan)(suan)法(fa)(fa)(fa)中把跟(gen)蹤目標稱為前(qian)(qian)(qian)(qian)(qian)景(jing),其(qi)他部分(fen)為背(bei)景(jing),前(qian)(qian)(qian)(qian)(qian)景(jing)用(yong)包圍(wei)框框住。若當(dang)前(qian)(qian)(qian)(qian)(qian)幀(zhen)為第(di)N 幀(zhen),前(qian)(qian)(qian)(qian)(qian)一幀(zhen)為N-1 幀(zhen)。CMT 跟(gen)蹤算(suan)(suan)(suan)法(fa)(fa)(fa)流(liu)程(cheng)如圖1 所示。一般(ban)的跟(gen)蹤算(suan)(suan)(suan)法(fa)(fa)(fa)和背(bei)景(jing)建(jian)模與前(qian)(qian)(qian)(qian)(qian)景(jing)檢測算(suan)(suan)(suan)法(fa)(fa)(fa)類似一般(ban)運行(xing)在前(qian)(qian)(qian)(qian)(qian)端設備,由于前(qian)(qian)(qian)(qian)(qian)端相機計算(suan)(suan)(suan)資源有限,不太會運行(xing)復雜(za)的機器(qi)學習算(suan)(suan)(suan)法(fa)(fa)(fa)。由如圖1 可見,整個CMT 流(liu)程(cheng)由光流(liu)算(suan)(suan)(suan)法(fa)(fa)(fa)、KNN 聚(ju)(ju)類和層次聚(ju)(ju)類構成(cheng),但是巧妙(miao)之(zhi)處在于進行(xing)對當(dang)前(qian)(qian)(qian)(qian)(qian)第(di)N 幀(zhen)和前(qian)(qian)(qian)(qian)(qian)一幀(zhen)第(di)N-1 幀(zhen)的光流(liu)法(fa)(fa)(fa)得(de)到的跟(gen)蹤關鍵點,以及有特征點檢測得(de)到的特征點,兩種(zhong)點進行(xing)反(fan)復驗證融合,大(da)大(da)提高魯棒性。
CMT 算法首先對(dui)首幀(zhen)檢測FAST 特(te)(te)(te)(te)征(zheng)點(dian)及其BRISK 特(te)(te)(te)(te)征(zheng)描(miao)述,其中(zhong)(zhong)包括前(qian)(qian)景(jing)(jing)框(kuang)中(zhong)(zhong)的(de)特(te)(te)(te)(te)征(zheng)點(dian)。然(ran)后把前(qian)(qian)景(jing)(jing)框(kuang)的(de)特(te)(te)(te)(te)征(zheng)點(dian)與背(bei)景(jing)(jing)部分的(de)特(te)(te)(te)(te)征(zheng)分為(wei)兩(liang)類(lei)保存,并(bing)求取(qu)前(qian)(qian)景(jing)(jing)框(kuang)中(zhong)(zhong)的(de)兩(liang)兩(liang)特(te)(te)(te)(te)征(zheng)點(dian)之間的(de)相對(dui)距(ju)離和(he)相對(dui)角(jiao)度。對(dui)后續的(de)每一(yi)幀(zhen)繼續檢測FAST 特(te)(te)(te)(te)征(zheng)點(dian)及其BRISK 特(te)(te)(te)(te)征(zheng)描(miao)述。對(dui)當(dang)前(qian)(qian)幀(zhen)(從(cong)第二幀(zhen)開始)中(zhong)(zhong)使用(yong)BRISK 特(te)(te)(te)(te)征(zheng)描(miao)述在前(qian)(qian)一(yi)幀(zhen)前(qian)(qian)景(jing)(jing)特(te)(te)(te)(te)征(zheng)點(dian)進(jin)行KNN 聚類(lei),從(cong)特(te)(te)(te)(te)征(zheng)點(dian)的(de)角(jiao)度對(dui)前(qian)(qian)景(jing)(jing)點(dian)進(jin)行驗(yan)證。
并對后(hou)續的每(mei)一幀(zhen)(從(cong)第二幀(zhen)開始)的前(qian)景框內的關鍵點(dian)(dian),進行前(qian)向光(guang)流(liu)估計(ji)(N-1 → N),對得到的光(guang)流(liu)點(dian)(dian)再(zai)進行后(hou)向光(guang)流(liu)估計(ji)(N → N-1),經(jing)過雙向驗證(zheng)去掉假的前(qian)向光(guang)流(liu)估計(ji)。這樣(yang)對光(guang)流(liu)跟蹤和特征描述(shu)聚類兩個角度(du)的跟蹤點(dian)(dian)進行融合。
前(qian)(qian)(qian)(qian)景(jing)目標在(zai)攝像(xiang)機場景(jing)中運動的(de)過程(cheng)中,物距(ju)發生變化(hua),由透視成像(xiang)原(yuan)理得知,前(qian)(qian)(qian)(qian)景(jing)目標成像(xiang)尺(chi)寸會(hui)(hui)發生變化(hua),同時(shi)也(ye)(ye)會(hui)(hui)發生旋轉變化(hua)。CMT 跟蹤算法(fa)(fa)考慮到了這兩(liang)(liang)(liang)種變化(hua)。所(suo)以在(zai)首幀(zhen)時(shi)已(yi)經記錄了前(qian)(qian)(qian)(qian)景(jing)框內所(suo)有關鍵點(dian)兩(liang)(liang)(liang)兩(liang)(liang)(liang)點(dian)之間的(de)距(ju)離矩陣和相對(dui)角度(du)矩陣。在(zai)后(hou)續的(de)每一幀(zhen)時(shi),也(ye)(ye)同時(shi)距(ju)離當前(qian)(qian)(qian)(qian)幀(zhen)前(qian)(qian)(qian)(qian)景(jing)框內所(suo)有點(dian)兩(liang)(liang)(liang)兩(liang)(liang)(liang)點(dian)的(de)距(ju)離和相對(dui)角度(du)。然后(hou)根據(ju)中值算法(fa)(fa),計算當前(qian)(qian)(qian)(qian)前(qian)(qian)(qian)(qian)景(jing)點(dian)相對(dui)首幀(zhen)前(qian)(qian)(qian)(qian)景(jing)的(de)縮放尺(chi)寸和旋轉角度(du)。
然后根據相(xiang)對首幀(zhen)的縮放尺寸(cun)和(he)旋轉(zhuan)角度中值,對每(mei)個特征點(dian)進(jin)行(xing)進(jin)行(xing)投票,并采用層次聚類的方法選取最大的類也就(jiu)是最一致的變換點(dian),并把(ba)變換點(dian)轉(zhuan)換回特征點(dian),得(de)到(dao)在當(dang)前(qian)(qian)幀(zhen)上的有效特征點(dian)。并得(de)到(dao)當(dang)前(qian)(qian)前(qian)(qian)景框(kuang)的中心點(dian)估計。
然后使用估計得到(dao)的(de)(de)中(zhong)心點(dian),在當(dang)前(qian)幀(zhen)內,再從特征點(dian)的(de)(de)角度相對首幀(zhen)的(de)(de)前(qian)景點(dian)變換后的(de)(de)點(dian)進行KNN 聚類,進一(yi)步(bu)驗證當(dang)前(qian)關鍵點(dian)的(de)(de)準確(que)性。
CMT 跟蹤(zong)(zong)(zong)算法減小輕便,不依(yi)賴模(mo)型(xing)學習(xi),準確率高,適(shi)宜在前端相機進行行人跟蹤(zong)(zong)(zong)、車輛圖(tu)像屬(shu)性塊跟蹤(zong)(zong)(zong),大大提高產品(pin)性能,為其他(ta)算法模(mo)塊提供有效資源。
宇(yu)視結合不同智能相機實(shi)際應(ying)用場景,以CMT 算法(fa)為指(zhi)導,對現有跟蹤算法(fa)進行改進,取(qu)得了更優(you)秀的效果,把相機的智能分(fen)析功能提高到更高的一(yi)個層次(ci)。
深度卷積網絡
卷(juan)積網(wang)絡(luo)(Convolutional Networks)又常稱(cheng)為神(shen)(shen)經(jing)網(wang)絡(luo)(Neural Networks) 或者卷(juan)積神(shen)(shen)經(jing)網(wang)絡(luo)(Convolutional NeuralNetworks,CNN)。多(duo)層(ceng)卷(juan)積網(wang)絡(luo)稱(cheng)之(zhi)為深(shen)度(du)卷(juan)積網(wang)絡(luo)。卷(juan)積網(wang)絡(luo)最基本的(de)運(yun)(yun)算單(dan)元(yuan)(yuan)稱(cheng)為神(shen)(shen)經(jing)元(yuan)(yuan),如圖2 所(suo)示(shi)。正如深(shen)度(du)卷(juan)積網(wang)絡(luo)之(zhi)父Yan LeCun 指出的(de)卷(juan)積網(wang)絡(luo)嚴格來說不(bu)能稱(cheng)之(zhi)為神(shen)(shen)經(jing)網(wang)絡(luo),同樣(yang)神(shen)(shen)經(jing)元(yuan)(yuan)運(yun)(yun)算單(dan)元(yuan)(yuan)也(ye)不(bu)是神(shen)(shen)經(jing)科(ke)學意義上(shang)的(de)神(shen)(shen)經(jing)元(yuan)(yuan)。其實到目前為止,人類還(huan)未真正弄清(qing)楚人腦(nao)的(de)工作機理,但是在(zai)一定程度(du)上(shang)人們知道一個大腦(nao)皮層(ceng)神(shen)(shen)經(jing)元(yuan)(yuan)的(de)工作過(guo)程。
![](/res/201706/02/20170602_1618403_32-2_799332_140493_0.jpg)
(圖2)神經元
![](/res/201706/02/20170602_1618404_32-3_799332_140493_0.jpg)
(圖3)大腦皮層神經元
如圖3所示,神經(jing)(jing)元(yuan)(yuan)具有(you)一個(ge)軸(zhou)(zhou)突(tu)(axon)分支,同時有(you)一個(ge)收(shou)集來自其他神經(jing)(jing)元(yuan)(yuan)輸入的(de)樹(shu)突(tu)樹(shu)(dendritic tree)。軸(zhou)(zhou)突(tu)通(tong)常在突(tu)觸(synapses)和樹(shu)突(tu)樹(shu)進行通(tong)信。有(you)一個(ge)軸(zhou)(zhou)丘(axon hillock),每當足(zu)夠(gou)的(de)電荷流出突(tu)觸,以使得細(xi)胞膜去極(ji)化后(hou),就會生成(cheng)峰值,軸(zhou)(zhou)突(tu)上的(de)激勵峰值會注入電荷到突(tu)觸后(hou)的(de)神經(jing)(jing)元(yuan)(yuan)。
所(suo)謂(wei)深度卷(juan)積網(wang)(wang)絡中的(de)神(shen)經(jing)(jing)元只是大腦皮(pi)層(ceng)神(shen)經(jing)(jing)元的(de)近似。模仿大腦神(shen)經(jing)(jing)元層(ceng)層(ceng)連接成(cheng)網(wang)(wang)狀(zhuang)的(de)結構,把一個個神(shen)經(jing)(jing)元計(ji)算(suan)單元層(ceng)層(ceng)排列進行連接,就構成(cheng)了所(suo)謂(wei)的(de)深度卷(juan)積網(wang)(wang)絡。
卷(juan)積神經(jing)網絡(luo)并不是(shi)個新(xin)算法。在20 世紀50 年代就已經(jing)出(chu)(chu)現(xian),后來(lai)到80 年代出(chu)(chu)現(xian)了使(shi)用(yong)CNN 進行數字識別,但是(shi)由于(yu)訓練(lian)時(shi)間過長,仍然沒有大量使(shi)用(yong)。
CNN 再(zai)(zai)次(ci)引入注目是Geoffrey E. Hinton(CNN 的(de)(de)(de)(de)另一個發(fa)明者) 及其弟子(zi)AlexKrizhevsky 在NIPS2014 會議上發(fa)表《ImageClassification with Deep ConvolutionalNeural Networks》,首次(ci)使用(yong)深(shen)度(du)卷(juan)積神經網(wang)絡在 LSVRC-2010 ImageNet(2010 年(nian)度(du)大規模視覺識別挑(tiao)戰(zhan)賽(Large Scale VisualRecognition Challenge)數(shu)據(ju)集ImageNet)數(shu)據(ju)集上進行(xing)(xing)通用(yong)目標(biao)的(de)(de)(de)(de)檢測,其TOP-1 錯誤(wu)率和TOP-5 錯誤(wu)率比先前的(de)(de)(de)(de)基于手(shou)(shou)工設計特征的(de)(de)(de)(de)最好(hao)的(de)(de)(de)(de)方法都要優秀很多很多。同時(shi)該(gai)論文使用(yong)GPU 進行(xing)(xing)加速,大大縮短模型訓練(lian)時(shi)間,提高CNN 訓練(lian)的(de)(de)(de)(de)可(ke)行(xing)(xing)性。其實CNN的(de)(de)(de)(de)再(zai)(zai)次(ci)風(feng)靡(mi),不僅是由于近幾年(nian)GPU 加速技術的(de)(de)(de)(de)突飛猛(meng)進,大大縮短CNN 的(de)(de)(de)(de)訓練(lian)時(shi)間,同時(shi)由于移動互聯網(wang)和智能手(shou)(shou)機(ji)拍照功能的(de)(de)(de)(de)增強(qiang),可(ke)以輕易獲得百萬級別的(de)(de)(de)(de)訓練(lian)樣(yang)本,所以說(shuo)是現(xian)在具備了訓練(lian)CNN 的(de)(de)(de)(de)客觀(guan)條件。
尤其(qi)是在視頻監控行(xing)業,大量部署的(de)智能相機24 小時不(bu)間斷的(de)采(cai)集車(che)輛(liang)、行(xing)人等等各種圖(tu)片視頻信(xin)息。海量視頻圖(tu)片信(xin)息對采(cai)用CNN 算法提供了天然的(de)優勢(shi)資源。
![](/res/201706/02/20170602_1618405_32-4_799332_140493_0.jpg)
(圖4)LeNet
![](/res/201706/02/20170602_1618406_32-5_799332_140493_0.jpg)
(圖5)DeepID2
我們知(zhi)道(dao)深度(du)神(shen)經網(wang)(wang)絡屬于(yu)機器(qi)學(xue)習(Machine Learning)學(xue)科范疇(chou),機器(qi)學(xue)習科學(xue)除(chu)了CNN 之(zhi)外還包括聚類算(suan)法(fa),SVM 算(suan)法(fa)、深度(du)波(bo)茲曼機器(qi)、深度(du)遞歸(gui)網(wang)(wang)絡,深度(du)信念網(wang)(wang)絡等。這些算(suan)法(fa)應用在(zai)視頻監控領(ling)域的(de)智能分析技術的(de)方方面(mian)面(mian),它們的(de)訓練都(dou)與海量樣本有關。
機(ji)器學(xue)習(xi)在視頻(pin)監控行業的應(ying)用主要有通(tong)(tong)用目(mu)標(biao)(biao)檢(jian)測、定位、識別,通(tong)(tong)用目(mu)標(biao)(biao)包括車(che)輛(liang)、車(che)型、車(che)標(biao)(biao)、各(ge)種(zhong)非機(ji)動(dong)(dong)、行人(ren)(ren)等,還可以是各(ge)種(zhong)目(mu)標(biao)(biao)的屬(shu)性檢(jian)測,比(bi)如(ru)車(che)身顏(yan)色、行人(ren)(ren)發式或(huo)者衣服屬(shu)性識別。傳統(tong)(tong)智(zhi)能分析技術中(zhong)的背景建模與前景檢(jian)測、運動(dong)(dong)目(mu)標(biao)(biao)檢(jian)測、運動(dong)(dong)目(mu)標(biao)(biao)跟蹤等傳統(tong)(tong)應(ying)用也使(shi)用機(ji)器學(xue)習(xi)中(zhong)的各(ge)種(zhong)算(suan)法,比(bi)如(ru)聚類算(suan)法、光流算(suan)法、各(ge)種(zhong)特征描述(shu)符等。
在(zai)最(zui)新(xin)(xin)的Garner2015 新(xin)(xin)興技(ji)術(shu)發展周期(qi)報告上(shang)(圖6 和圖7),大數據(ju)(Big Data)在(zai)2015 年的炒作(zuo)周期(qi)表(biao)(biao)上(shang)已(yi)經(jing)(jing)看不到它了(le),2014 年的炒作(zuo)周期(qi)表(biao)(biao)上(shang)已(yi)經(jing)(jing)表(biao)(biao)明它正走(zou)向(xiang)低谷。這可能意味著最(zui)后關(guan)注(zhu)的大數據(ju)相關(guan)技(ji)術(shu)已(yi)經(jing)(jing)不是(shi)一(yi)種新(xin)(xin)興技(ji)術(shu),它們已(yi)經(jing)(jing)用于實踐當中。機器學習在(zai)今年的周期(qi)表(biao)(biao)中首(shou)次出現,但是(shi)已(yi)經(jing)(jing)越過了(le)膨脹預期(qi)的頂峰(feng),取代了(le)大數據(ju)技(ji)術(shu)。
![](/res/201706/02/20170602_1618407_32-6_799332_140493_0.jpg)
(圖6)Gartner 2015新興技術發展周期 (圖7)Gartner 2014新興技術發展周期
在CVPR2015會議(yi)召開(kai)之(zhi)際(ji),文章《Deep down the rabbit hole: CVPR 2015 and beyond》中作(zuo)(zuo)者認為在CVPR2015會議(yi)上,若提(ti)交(jiao)的論文沒有采用(yong)(yong)DNN(Deep NeuralNet works),不(bu)把ConvNet(深度卷積(ji)(ji)網絡(luo)開(kai)源庫(ku),深度卷積(ji)(ji)網絡(luo)(Deep Convolutional Networks)是一種(zhong)主(zhu)要的DNN)作(zuo)(zuo)為比(bi)較(jiao)基準,很(hen)難(nan)被采用(yong)(yong)。作(zuo)(zuo)者同(tong)時把CNN的之(zhi)父(fu)YannLeCun的地位提(ti)高的笛卡(ka)爾坐標系在數學界的高度(圖8)。可(ke)見DNN在計算機學習領域的影響之(zhi)大。
![](/res/201706/02/20170602_1618408_32-7_799332_140493_0.jpg)
這表明在(zai)今年以及未(wei)來的(de)(de)(de)(de)一(yi)(yi)段(duan)時(shi)間里(li)(li),機(ji)器學(xue)(xue)習(xi)相(xiang)關技(ji)術會吸引更(geng)過的(de)(de)(de)(de)科研機(ji)構投入其中(zhong),結合愈(yu)來愈(yu)豐富的(de)(de)(de)(de)海量數(shu)(shu)據,尤其海量圖片(pian)和(he)視(shi)(shi)(shi)頻(pin)數(shu)(shu)據,一(yi)(yi)定會在(zai)視(shi)(shi)(shi)頻(pin)監(jian)控(kong)領域,發掘出更(geng)多(duo)更(geng)優秀的(de)(de)(de)(de)算法出來,對視(shi)(shi)(shi)頻(pin)監(jian)控(kong)行(xing)(xing)業(ye)產生更(geng)深(shen)的(de)(de)(de)(de)影響,這將(jiang)(jiang)極大提升視(shi)(shi)(shi)頻(pin)監(jian)控(kong)領域中(zhong)的(de)(de)(de)(de)許多(duo)智能(neng)分(fen)析(xi)技(ji)術的(de)(de)(de)(de)升級(ji)換代(dai),給客(ke)戶(hu)帶來更(geng)高的(de)(de)(de)(de)準確度和(he)性能(neng)。比(bi)如最近微軟云(yun)(yun)(yun)服(fu)(fu)務(wu)(wu)azure,以及阿里(li)(li)云(yun)(yun)(yun)服(fu)(fu)務(wu)(wu),還(huan)有開源云(yun)(yun)(yun)計算平(ping)臺(tai)Spark,都(dou)在(zai)其中(zhong)添加了GPU加速的(de)(de)(de)(de)機(ji)器學(xue)(xue)習(xi)功能(neng),這會極大促進機(ji)器學(xue)(xue)習(xi)云(yun)(yun)(yun)服(fu)(fu)務(wu)(wu)的(de)(de)(de)(de)推廣(guang)與普及。雖然目前在(zai)視(shi)(shi)(shi)頻(pin)監(jian)控(kong)行(xing)(xing)業(ye)還(huan)未(wei)看到類似的(de)(de)(de)(de)使用GPU加速的(de)(de)(de)(de)機(ji)器學(xue)(xue)習(xi)云(yun)(yun)(yun)服(fu)(fu)務(wu)(wu),但相(xiang)信(xin)在(zai)不久(jiu)的(de)(de)(de)(de)將(jiang)(jiang)來,會在(zai)監(jian)控(kong)行(xing)(xing)業(ye)出現這樣的(de)(de)(de)(de)服(fu)(fu)務(wu)(wu)項目,客(ke)戶(hu)需要服(fu)(fu)務(wu)(wu)時(shi),只需要把圖片(pian)視(shi)(shi)(shi)頻(pin)上傳到云(yun)(yun)(yun)端,云(yun)(yun)(yun)端分(fen)布(bu)式(shi)GPU深(shen)度學(xue)(xue)習(xi)模塊很(hen)快的(de)(de)(de)(de)就返(fan)回具有可(ke)視(shi)(shi)(shi)化功能(neng)的(de)(de)(de)(de)結果顯(xian)示,各個派(pai)出所級(ji)別的(de)(de)(de)(de)客(ke)戶(hu)沒有必要再(zai)單(dan)獨購買智能(neng)分(fen)析(xi)設備(bei)。
為更好(hao)的迎接機器學習(xi),尤其是深度學習(xi),以及GPU加速對視頻(pin)監控領域的智能分析技術帶(dai)來的深刻變革,專門成立了機器學習(xi)研(yan)究(jiu)院,專注(zhu)于(yu)在視頻(pin)監控領域,機器學習(xi)結合傳(chuan)統智能分析技術,深入研(yan)究(jiu)下一代智能分析算法(fa)以及產品形(xing)態。
目(mu)前(qian),宇視(shi)已經(jing)把機器學習算法深(shen)入應(ying)用(yong)到車(che)輛(liang)檢測與識別、車(che)輛(liang)各種屬性(xing)檢測與識別、人體身(shen)份(fen)一致性(xing)識別等等多個產品中,致力于(yu)為客戶帶來(lai)更高品質的(de)智能(neng)體驗。