《宇(yu)視》編者按:對(dui)于“AI芯片”、“人工(gong)智能(neng)芯片”,最早由智能(neng)手機在(zai)(zai)2018年炒(chao)熱。學界(jie)對(dui)此并不認同(tong),中國(guo)科(ke)學院自動(dong)化研究所專家王(wang)飛躍稱(cheng)沒有(you)這樣(yang)的說法:“我不認為(wei)現在(zai)(zai)有(you)所謂(wei)的人工(gong)智能(neng)芯片,當然這種宣傳可(ke)以進(jin)行。”德國(guo)馬格德堡大學教授Andreas Nuernberger也同(tong)意這樣(yang)的觀(guan)點,不知道背后誰在(zai)(zai)推(tui)動(dong),從而成為(wei)一(yi)個(ge)熱詞(ci)。盡管如此,本文不失為(wei)一(yi)篇科(ke)普佳作,我們有(you)幸在(zai)(zai)經歷一(yi)個(ge)營銷泡沫、商(shang)業(ye)激進(jin)、學術冷(leng)靜并存(cun)的AI時代。
相信你(ni)一定還記得(de)擊(ji)敗了李世石(shi)和柯潔的谷(gu)歌“阿爾(er)法狗(gou)”(Alpha Go),那你(ni)知道驅動(dong)Alpha Go的是(shi)什么嗎?
如(ru)果你覺得(de)Alpha Go和人相(xiang)似(si),只不過是(shi)把人腦(nao)換成了(le)芯(xin)片(pian),那么(me)你就大(da)錯(cuo)特錯(cuo)了(le)。擊敗(bai)李世石的(de)(de)(de)Alpha Go裝(zhuang)有(you)48個(ge)谷歌(ge)的(de)(de)(de)AI芯(xin)片(pian),而這(zhe)48個(ge)芯(xin)片(pian)不是(shi)安裝(zhuang)在(zai)Alpha Go身體(ti)里,而是(shi)在(zai)云端(duan)。所(suo)以,真正驅動(dong)Alpha Go的(de)(de)(de)裝(zhuang)置,看上去是(shi)如(ru)下圖這(zhe)樣的(de)(de)(de)。
![](/res/201912/03/20191203_1625852_33-10_804632_140493_0.jpg)
因此李(li)世石和柯潔(jie)不是輸(shu)給了(le)“機器(qi)人”,而(er)是輸(shu)給了(le)裝有AI芯(xin)片的云(yun)工作站。
然而近幾年,AI技(ji)術(shu)的(de)(de)應用場(chang)景(jing)開始(shi)向移(yi)動(dong)設備(bei)轉(zhuan)移(yi),比如(ru)汽(qi)車上的(de)(de)自動(dong)駕駛、手機上的(de)(de)智能識別等。產業的(de)(de)需求促成了技(ji)術(shu)的(de)(de)進(jin)步,而AI芯片作為產業的(de)(de)根(gen)基,必須達(da)到更強的(de)(de)性能、更高的(de)(de)效率(lv)、更小的(de)(de)體積,才(cai)能完成AI技(ji)術(shu)從云端(duan)到終端(duan)的(de)(de)轉(zhuan)移(yi)。
![](/res/201912/03/20191203_1625843_33-1_804632_140493_0.jpg)
圖 2018年6月,在北京舉辦的IEEE人工智能與控制論國際研討會,IEEE SMC學會、中國自動化學會、中科院自動化研究所等專家在對區塊鏈、人工智能等概念的熱炒降溫
目前,AI芯(xin)片(pian)的(de)研發(fa)(fa)方向主要(yao)分(fen)兩種:一是(shi)基于傳統馮·諾(nuo)依曼(man)架(jia)構的(de)FPGA(現(xian)場可(ke)編程門陣列(lie))和ASIC(專用(yong)集成(cheng)電路(lu))芯(xin)片(pian),二是(shi)模(mo)仿(fang)人腦(nao)神經元結構設計的(de)類(lei)腦(nao)芯(xin)片(pian)。其中FPGA和ASIC芯(xin)片(pian)不管是(shi)研發(fa)(fa)還(huan)是(shi)應用(yong),都已經形成(cheng)一定規(gui)模(mo);而類(lei)腦(nao)芯(xin)片(pian)雖然還(huan)處于研發(fa)(fa)初期,但具備(bei)很大潛力,可(ke)能在(zai)未來(lai)成(cheng)為行(xing)業內的(de)主流。
這兩條發(fa)展路(lu)線的(de)(de)主要區別在于,前者(zhe)沿用馮·諾依(yi)曼架(jia)(jia)構(gou)(gou),后者(zhe)采用類腦(nao)架(jia)(jia)構(gou)(gou)。你看(kan)到的(de)(de)每一(yi)臺電腦(nao),采用的(de)(de)都是(shi)馮·諾依(yi)曼架(jia)(jia)構(gou)(gou)。它的(de)(de)核心思路(lu)就是(shi)處理器(qi)和存儲器(qi)要分開,所以才有了(le)CPU(中(zhong)央處理器(qi))和內存。而類腦(nao)架(jia)(jia)構(gou)(gou),顧名思義,模仿人腦(nao)神經元結構(gou)(gou),因此(ci)CPU、內存和通信部件都集成在一(yi)起。
![](/res/201912/03/20191203_1625844_33-2_804632_140493_0.jpg)
圖 GPU比CPU有更多的邏輯運算單元(ALU)
下面(mian)介紹兩種架構的簡要發展史、技術特點(dian)和代表性(xing)產品。
從GPU到FPGA和ASIC芯片
2007年以前(qian),受限于當時(shi)(shi)算(suan)法(fa)和(he)數據(ju)等因(yin)素,AI對芯(xin)(xin)片(pian)(pian)還沒有特別(bie)強(qiang)烈的(de)(de)需求(qiu),通用的(de)(de)CPU芯(xin)(xin)片(pian)(pian)即可提供足夠的(de)(de)計(ji)算(suan)能(neng)力。比如現在(zai)在(zai)讀這篇(pian)文(wen)章(zhang)的(de)(de)你(ni),手(shou)機(ji)或電(dian)腦(nao)里就有CPU芯(xin)(xin)片(pian)(pian)。之(zhi)后由于高清(qing)視(shi)頻(pin)和(he)游戲產業的(de)(de)快速(su)(su)發展,GPU(圖(tu)形(xing)處理器(qi))芯(xin)(xin)片(pian)(pian)取(qu)得迅速(su)(su)的(de)(de)發展。因(yin)為(wei)GPU有更多(duo)的(de)(de)邏(luo)輯運算(suan)單元用于處理數據(ju),屬于高并行結構,在(zai)處理圖(tu)形(xing)數據(ju)和(he)復雜算(suan)法(fa)方(fang)面比CPU更有優(you)勢,又(you)因(yin)為(wei)AI深度學習的(de)(de)模型參數多(duo)、數據(ju)規(gui)模大、計(ji)算(suan)量(liang)大,此后一段時(shi)(shi)間內(nei)GPU代替了CPU,成為(wei)當時(shi)(shi)AI芯(xin)(xin)片(pian)(pian)的(de)(de)主流。
然而(er)GPU畢竟只是圖形處理器,不(bu)是專門用(yong)于(yu)AI深度學習的(de)芯片,自然存(cun)在(zai)(zai)不(bu)足,比如在(zai)(zai)執行AI應(ying)用(yong)時,其(qi)并行結構的(de)性(xing)能(neng)無法(fa)充分發揮,導致能(neng)耗(hao)高(gao)(gao)。與此同(tong)時,AI技術的(de)應(ying)用(yong)日益增長(chang),在(zai)(zai)教育、醫療、無人駕駛(shi)等(deng)領(ling)域都能(neng)看到AI的(de)身影(ying)。然而(er)GPU芯片過(guo)高(gao)(gao)的(de)能(neng)耗(hao)無法(fa)滿足產業的(de)需求,因此取而(er)代之的(de)是FPGA芯片,和ASIC芯片。
那么(me)這兩(liang)種芯片的(de)技術(shu)特點分(fen)別(bie)是什么(me)呢(ni)(ni)?又有什么(me)代(dai)表性的(de)產品呢(ni)(ni)?
“萬能芯片”FPGA
FPGA(Field-Programmable Gate Array),即“現場可編(bian)程門(men)陣列”,是在PAL、GAL、CPLD等可編(bian)程器件的基礎(chu)上進(jin)一步發展的產物(wu)。
![](/res/201912/03/20191203_1625846_33-4_804632_140493_0.jpg)
圖 Xilinx的Spartan系列FPGA芯片
FPGA可以被(bei)理解為“萬能(neng)芯片(pian)”。用戶通過(guo)燒入FPGA配置文件,來定義這些(xie)門電路以及存儲器之間的(de)連線,用硬(ying)件描述(shu)語言(HDL)對FPGA的(de)硬(ying)件電路進行設計。每完成一次(ci)燒錄,FPGA內部的(de)硬(ying)件電路就有(you)了確定的(de)連接方式,具有(you)了一定的(de)功(gong)能(neng),輸(shu)入的(de)數據(ju)只需要依次(ci)經過(guo)各(ge)個(ge)門電路,就可以得到輸(shu)出結果。用大白話說(shuo),“萬能(neng)芯片(pian)”就是你需要它(ta)有(you)哪些(xie)功(gong)能(neng)、它(ta)就能(neng)有(you)哪些(xie)功(gong)能(neng)的(de)芯片(pian)。
盡管叫“萬能芯(xin)片(pian)”,FPGA也(ye)不(bu)是(shi)沒有(you)缺陷。正因為FPGA的結構具有(you)較高(gao)靈活性,量(liang)產(chan)中單塊芯(xin)片(pian)的成本也(ye)比(bi)ASIC芯(xin)片(pian)高(gao),并且在性能上,FPGA芯(xin)片(pian)的速度和能耗相(xiang)比(bi)ASIC芯(xin)片(pian)也(ye)做出了妥協。
也就是說,“萬能(neng)芯(xin)片(pian)”雖然是個(ge)多面手,但它的性(xing)能(neng)比不上ASIC芯(xin)片(pian),價(jia)格也比ASIC芯(xin)片(pian)高。
但是在(zai)芯(xin)片需求(qiu)還未(wei)成規模、深度學習算法需要不(bu)斷迭代改進的(de)(de)情(qing)況下,具(ju)備可重構(gou)特性的(de)(de)FPGA芯(xin)片適應性更強。因此用FPGA來實現半定制人工智能(neng)芯(xin)片,毫無(wu)疑問是保(bao)險的(de)(de)選擇。
目前,FPGA芯片市場被美國廠(chang)(chang)商(shang)Xilinx和Altera瓜分。據國外(wai)媒體Marketwatch的(de)統計,前者(zhe)占(zhan)全球市場份(fen)額(e)50%、后者(zhe)約占(zhan)35%,兩(liang)家廠(chang)(chang)商(shang)霸占(zhan)了85%的(de)市場份(fen)額(e),專利6000多項(xiang),毫無疑問是行業里的(de)兩(liang)座大山(shan)。
Xilinx的FPGA芯片從(cong)低端到(dao)(dao)高端,分為(wei)四個系列(lie),分別是Spartan、Artix、Kintex、Vertex,芯片工藝(yi)也從(cong)45到(dao)(dao)16納米(mi)不等。芯片工藝(yi)水平(ping)越(yue)高,芯片越(yue)小(xiao)。其(qi)中Spartan和Artix主要(yao)針對(dui)民(min)用市(shi)場,應(ying)用包(bao)括(kuo)無(wu)人(ren)駕駛、智能家(jia)居(ju)等;Kintex和Vertex主要(yao)針對(dui)軍(jun)用市(shi)場,應(ying)用包(bao)括(kuo)國防、航空航天等。
再說說Xilinx的老對(dui)手Altera。Altera的主流FPGA芯片分為兩大(da)類(lei),一種側(ce)重低成(cheng)本(ben)應(ying)(ying)用(yong)(yong),容(rong)量中等,性能(neng)可以滿(man)足一般的應(ying)(ying)用(yong)(yong)需求,如Cyclone和MAX系列;還(huan)有一種側(ce)重于高(gao)性能(neng)應(ying)(ying)用(yong)(yong),容(rong)量大(da),性能(neng)能(neng)滿(man)足各類(lei)高(gao)端應(ying)(ying)用(yong)(yong),如Startix和Arria系列。Altera的FPGA芯片主要應(ying)(ying)用(yong)(yong)在消費(fei)電(dian)子、無線通信(xin)、軍(jun)事(shi)航空等領域。
專用集成電路ASIC
在AI產業應用大(da)規模興起(qi)之(zhi)前(qian),使用FPGA這類(lei)適合并(bing)行計算的(de)通用芯(xin)片(pian)來實現(xian)加速,可以避免研發ASIC這種定(ding)制芯(xin)片(pian)的(de)高投入和風(feng)險。
但就像我(wo)(wo)們剛才說到的(de)(de),由于通用芯片的(de)(de)設(she)計初衷(zhong)并非專門(men)針(zhen)對深(shen)度(du)學習,因此FPGA難免(mian)存在性(xing)能(neng)、功耗等方(fang)面(mian)的(de)(de)瓶(ping)頸。隨(sui)著人工智(zhi)(zhi)能(neng)應(ying)用規(gui)模的(de)(de)擴(kuo)大,這(zhe)類問題(ti)將日(ri)益突(tu)出。換句話說,我(wo)(wo)們對人工智(zhi)(zhi)能(neng)所有的(de)(de)美好設(she)想,都需要(yao)芯片追(zhui)上(shang)人工智(zhi)(zhi)能(neng)迅(xun)速(su)發(fa)展的(de)(de)步(bu)伐。如果芯片跟(gen)不上(shang),就會(hui)成為人工智(zhi)(zhi)能(neng)發(fa)展的(de)(de)瓶(ping)頸。
所以,隨著近幾年人(ren)工(gong)智能算(suan)法和應用領域的快速發展(zhan),以及研發上的成(cheng)果和工(gong)藝(yi)上的逐漸成(cheng)熟(shu),ASIC芯片正在成(cheng)為(wei)人(ren)工(gong)智能計算(suan)芯片發展(zhan)的主流(liu)。
ASIC芯(xin)片是(shi)針對特(te)定(ding)(ding)需(xu)求而定(ding)(ding)制的專用芯(xin)片。雖(sui)然犧牲了(le)通用性(xing),但ASIC無論是(shi)在性(xing)能、功耗還(huan)是(shi)體(ti)積上(shang),都比FPGA和(he)GPU芯(xin)片有優勢,特(te)別是(shi)在需(xu)要芯(xin)片同時具備(bei)高性(xing)能、低功耗、小體(ti)積的移(yi)動(dong)端設(she)備(bei)上(shang),比如手機。
但是(shi),因(yin)為通用性低,ASIC芯片(pian)的(de)高研發成本(ben)也可(ke)能會帶來(lai)高風險。然而如果考慮市場因(yin)素,ASIC芯片(pian)其(qi)實(shi)是(shi)行(xing)業的(de)發展大趨勢。
為什么(me)這么(me)說呢(ni)?因(yin)為從服(fu)務器、計(ji)算機到無人(ren)駕(jia)駛汽車、無人(ren)機,再到智(zhi)能家居的(de)(de)(de)各類家電,海量的(de)(de)(de)設備需要引(yin)入人(ren)工智(zhi)能計(ji)算能力(li)和感(gan)知交互能力(li)。出于對實(shi)時(shi)性(xing)的(de)(de)(de)要求(qiu),以(yi)及訓練數據(ju)隱私等(deng)考慮(lv),這些能力(li)不(bu)可(ke)能完全依(yi)賴云(yun)端,必須要有(you)本地的(de)(de)(de)軟(ruan)硬件基礎平臺支撐。而(er)ASIC芯片高性(xing)能、低(di)功耗(hao)、小體(ti)積的(de)(de)(de)特點恰好(hao)能滿足這些需求(qiu)。
ASIC芯片市場百家爭鳴
2016年,英偉達(da)發(fa)布了專門(men)用(yong)于加速AI計算(suan)(suan)的(de)Tesla P100芯片,并且在2017年升級為(wei)Tesla V100。在訓練超大型(xing)神經網絡(luo)模(mo)(mo)型(xing)時(shi),Tesla V100可為(wei)深度學習(xi)相關的(de)模(mo)(mo)型(xing)訓練和(he)推斷(duan)應用(yong)提供高達(da)125萬億(yi)次每(mei)秒的(de)張(zhang)量計算(suan)(suan)(張(zhang)量計算(suan)(suan)是AI深度學習(xi)中最常(chang)用(yong)到的(de)計算(suan)(suan))。然(ran)而在最高性能(neng)模(mo)(mo)式下(xia),Tesla V100的(de)功耗達(da)到300W,雖(sui)然(ran)性能(neng)強勁,但也毫(hao)無(wu)疑問是顆“核彈”,因為(wei)太費電(dian)了。
![](/res/201912/03/20191203_1625847_33-5_804632_140493_0.jpg)
圖 英偉達Tesla V100芯片
同樣在2016年,谷(gu)(gu)歌(ge)發布了(le)加速深度學(xue)習的(de)TPU(Tensor Processing Unit)芯片,并且之后升級為TPU 2.0和TPU 3.0。與英偉達(da)的(de)芯片不同,谷(gu)(gu)歌(ge)的(de)TPU芯片設置在云端(duan),并且“只(zhi)租不賣”,服(fu)務按(an)小時收費。不過谷(gu)(gu)歌(ge)TPU的(de)性能也(ye)十分強(qiang)大,算力(li)達(da)到180萬億次每秒(miao),并且功耗只(zhi)有200w。
![](/res/201912/03/20191203_1625848_33-6_804632_140493_0.jpg)
圖 谷歌TPU芯片
關于各(ge)自AI芯片(pian)的性(xing)能(neng),谷(gu)歌CEOSundar Pichai和英偉達(da)CEO黃仁勛之前(qian)還在(zai)(zai)(zai)網(wang)上產生過爭論。別看(kan)兩位大(da)佬為自家產品(pin)撐腰,爭得不(bu)可開交,實(shi)際上不(bu)少網(wang)友指出(chu),這兩款產品(pin)沒必要“硬做(zuo)比較”,因為一個是在(zai)(zai)(zai)云端(duan),一個是在(zai)(zai)(zai)終端(duan)。
除了大公司,初創企業(ye)也在激(ji)烈競(jing)爭ASIC芯片市場(chang)。那么初創企業(ye)在行業(ye)中(zhong)該如何生存呢?對此,AI芯片初創企業(ye)Novumind的中(zhong)國區CEO周斌告訴小探(tan):創新是初創企業(ye)的核心競(jing)爭力。
2017年(nian)(nian),NovuMind推出(chu)了第一款自(zi)主設(she)計(ji)的(de)(de)AI芯(xin)片(pian)(pian):NovuTensor。這款芯(xin)片(pian)(pian)使用原生(sheng)張量(liang)處理器(Native Tensor Processor)作為內核(he)構架(jia),這種內核(he)架(jia)構由NovuMind自(zi)主研發,并在短(duan)短(duan)一年(nian)(nian)內獲(huo)得美國專(zhuan)利(li)。此外,NovuTensor芯(xin)片(pian)(pian)采用不同(tong)的(de)(de)異構計(ji)算(suan)(suan)模式來應(ying)(ying)對不同(tong)AI應(ying)(ying)用領域(yu)的(de)(de)三維張量(liang)計(ji)算(suan)(suan)。2018年(nian)(nian)下半年(nian)(nian),Novumind剛推出(chu)了新(xin)一代NovuTensor芯(xin)片(pian)(pian),這款芯(xin)片(pian)(pian)在做到(dao)15萬億次計(ji)算(suan)(suan)每秒的(de)(de)同(tong)時,全芯(xin)片(pian)(pian)功耗控制在約15W,效率(lv)極高。
![](/res/201912/03/20191203_1625849_33-7_804632_140493_0.jpg)
圖 Novumind的NovuTensor芯片
盡管NovuTensor芯片(pian)(pian)(pian)的(de)(de)紙面(mian)算(suan)(suan)(suan)力不如英偉達(da)的(de)(de)芯片(pian)(pian)(pian),但是其計算(suan)(suan)(suan)延遲和功(gong)耗卻低得多,因(yin)此適合邊緣(yuan)端AI計算(suan)(suan)(suan),也(ye)就是服務于物聯(lian)網。雖(sui)然(ran)大家都在追(zhui)求高算(suan)(suan)(suan)力,但實際上(shang)不是所(suo)有(you)芯片(pian)(pian)(pian)都需要高算(suan)(suan)(suan)力的(de)(de)。比如用在手機(ji)、智能(neng)眼鏡上(shang)的(de)(de)芯片(pian)(pian)(pian),雖(sui)然(ran)也(ye)對算(suan)(suan)(suan)力有(you)一定要求,但更(geng)需要的(de)(de)是低能(neng)耗,否則你的(de)(de)手機(ji)、智能(neng)眼鏡等(deng)產(chan)品,用幾下就沒電了。并且據(ju)EE Times的(de)(de)報道,在運(yun)行(xing)ResNet-18、ResNet-34、ResNet70、VGG16等(deng)業(ye)界標準神(shen)經網絡推理(li)時,NovuTensor芯片(pian)(pian)(pian)的(de)(de)吞吐量和延遲都要優于英偉達(da)的(de)(de)另一款高端芯片(pian)(pian)(pian)Xavier。
![](/res/201912/03/20191203_1625850_33-8_804632_140493_0.jpg)
圖 神經元結構
結合Novumind 現(xian)階(jie)段的(de)成功,我們(men)不(bu)難看出:在(zai)云端市場(chang)目前被英(ying)偉(wei)達(da)、谷歌等(deng)巨(ju)頭公司霸占,終端應(ying)用芯片群雄逐鹿的(de)情形下(xia),專(zhuan)注技術創新(xin),在(zai)關鍵指(zhi)標上(shang)大幅領先(xian)所有競(jing)爭(zheng)對手,或許(xu)是AI芯片初創企業的(de)生存之道。
類腦芯片
如文(wen)章開(kai)頭所說,目前所有(you)電(dian)腦,包括(kuo)以上談到的所有(you)芯片,都(dou)基于(yu)馮·諾依曼架構。
然而這種架構并非十(shi)全十(shi)美。將CPU與內(nei)存分開(kai)的(de)設(she)計(ji),反而會導致(zhi)所謂的(de)馮·諾伊(yi)曼(man)瓶頸(von Neumann bottleneck):CPU與內(nei)存之間(jian)的(de)資料(liao)(liao)傳輸率(lv)(lv),與內(nei)存的(de)容量和CPU的(de)工(gong)作效率(lv)(lv)相比都非常小,因此(ci)當CPU需要在巨(ju)大的(de)資料(liao)(liao)上(shang)執行一(yi)些簡單指(zhi)令時,資料(liao)(liao)傳輸率(lv)(lv)就成了整體效率(lv)(lv)非常嚴重的(de)限制。
既然(ran)要研制人(ren)(ren)工智能芯片,那么有的(de)專家就回(hui)歸問(wen)題本身,開始(shi)模(mo)仿人(ren)(ren)腦的(de)結構。
人腦內有上千億個神(shen)(shen)經(jing)(jing)元,而(er)且每個神(shen)(shen)經(jing)(jing)元都通過成千上萬(wan)個突(tu)觸與其他(ta)神(shen)(shen)經(jing)(jing)元相連(lian),形成超(chao)級龐大(da)的(de)神(shen)(shen)經(jing)(jing)元回路,以分(fen)布式(shi)(shi)和并(bing)發式(shi)(shi)的(de)方式(shi)(shi)傳導信號,相當于超(chao)大(da)規(gui)模的(de)并(bing)行(xing)計(ji)算,因此算力極強。人腦的(de)另一(yi)個特點是(shi),不是(shi)大(da)腦的(de)每個部分(fen)都一(yi)直在工(gong)作,從而(er)整體能(neng)耗很低。
這種類(lei)腦芯片(pian)跟傳統的(de)馮·諾依曼架構不(bu)(bu)同,它(ta)的(de)內(nei)存、CPU和(he)通信(xin)部件(jian)是完全(quan)集成在(zai)(zai)一起,把數字處理(li)器(qi)當作(zuo)神(shen)經(jing)元,把內(nei)存作(zuo)為突觸。除此之外(wai),在(zai)(zai)類(lei)腦芯片(pian)上,信(xin)息(xi)的(de)處理(li)完全(quan)在(zai)(zai)本地(di)進行,而(er)且(qie)由于本地(di)處理(li)的(de)數據量并不(bu)(bu)大(da),傳統計算機內(nei)存與CPU之間的(de)瓶頸不(bu)(bu)復存在(zai)(zai)了。同時,神(shen)經(jing)元只要接收(shou)到其他神(shen)經(jing)元發過來的(de)脈沖,這些神(shen)經(jing)元就會同時做動作(zuo),因此神(shen)經(jing)元之間可以方(fang)便快(kuai)捷(jie)地(di)相互溝通。
在類(lei)腦芯(xin)片的(de)研發(fa)上,IBM是行業內(nei)(nei)的(de)先行者。2014年IBM發(fa)布了TrueNorth類(lei)腦芯(xin)片,這款芯(xin)片在直徑(jing)只有幾(ji)厘米(mi)的(de)方寸空(kong)間里(li),集(ji)成了4096個(ge)內(nei)(nei)核、100萬個(ge)“神經(jing)元”和2.56億個(ge)“突觸”,能(neng)耗只有不到70毫瓦,可謂是高集(ji)成、低功耗的(de)完美演繹。
![](/res/201912/03/20191203_1625851_33-9_804632_140493_0.jpg)
圖 裝有16個TrueNorth芯片的DARPA SyNAPSE主板
那么這款芯片的(de)(de)實戰表(biao)現如何呢?IBM研究小組曾經利(li)用做過DARPA的(de)(de)NeoVision2 Tower數據集做過演示。它能以30幀每秒(miao)速(su)度,實時識別出街景視(shi)頻中(zhong)的(de)(de)人(ren)、自行車、公交車、卡(ka)車等,準(zhun)確率(lv)達到(dao)了(le)80%。相(xiang)比(bi)之下,一臺筆(bi)記本編程完成(cheng)同(tong)樣的(de)(de)任務用時要慢100倍,能耗卻是IBM 芯片的(de)(de)1 萬倍。
然而目(mu)前類腦(nao)芯片研制的挑戰之(zhi)一,是(shi)在(zai)硬件層面上模仿人腦(nao)中的神經突(tu)觸(chu),換而言之(zhi)就(jiu)是(shi)設計完美的人造突(tu)觸(chu)。
在(zai)現(xian)有的(de)(de)類(lei)腦芯(xin)片(pian)中,通常用施加電(dian)壓的(de)(de)方式來模擬(ni)神經(jing)元中的(de)(de)信(xin)息傳(chuan)輸。但存在(zai)的(de)(de)問題是,由于大多數由非晶材(cai)料制成的(de)(de)人造突(tu)觸中,離(li)子通過的(de)(de)路(lu)徑有無限(xian)種可能,難以預測離(li)子究竟(jing)走(zou)哪一條路(lu),造成不同(tong)神經(jing)元電(dian)流輸出的(de)(de)差異。
針(zhen)對(dui)這個問題,今年麻省理工的研究團(tuan)隊制造了一種類腦芯片,其(qi)中的人(ren)造突(tu)(tu)觸(chu)(chu)由硅鍺制成,每(mei)個突(tu)(tu)觸(chu)(chu)約25納米。對(dui)每(mei)個突(tu)(tu)觸(chu)(chu)施加電壓(ya)時,所有突(tu)(tu)觸(chu)(chu)都表現(xian)出幾乎(hu)相同的離子流,突(tu)(tu)觸(chu)(chu)之間的差(cha)異約為(wei)4%。與無(wu)定形材料制成的突(tu)(tu)觸(chu)(chu)相比(bi),其(qi)性能更為(wei)一致。
即便如(ru)此,類(lei)腦(nao)(nao)芯片距離(li)(li)人腦(nao)(nao)也還有(you)相當大的(de)距離(li)(li),畢(bi)竟人腦(nao)(nao)里的(de)神經元個數有(you)上(shang)千億個,而現(xian)在最(zui)先進的(de)類(lei)腦(nao)(nao)芯片中的(de)神經元也只有(you)幾百萬個,連人腦(nao)(nao)的(de)萬分之一都不(bu)到。因此這類(lei)芯片的(de)研究,離(li)(li)成為市(shi)場上(shang)可以大規模(mo)廣泛使用的(de)成熟技(ji)術,還有(you)很長的(de)路要走,但(dan)是長期來(lai)看類(lei)腦(nao)(nao)芯片有(you)可能會帶來(lai)計(ji)算體系(xi)的(de)革(ge)命。