【導讀】最近半年以來,人工智能的發(fā)展重心逐漸從云端向終端轉(zhuǎn)移,相伴而生的是全新一代的計算芯片產(chǎn)業(yè)全面崛起。
日前,斯坦福大學研究院電子與微系統(tǒng)技術(shù)實驗室的Jeehwan Kim教授在《自然》雜志上發(fā)表了一篇論文,一時間引來了產(chǎn)學研三界的關(guān)注。原因是Jeehwan Kim教授與研究員們使用一種稱為硅鍺的材料研發(fā)了一款人工突觸芯片,可支持識別手寫字體的機器學習算法。無獨有偶,近日中國科學院自動化研究所類腦智能研究中心類腦信息處理(BRAVE)研究組也在借鑒生物神經(jīng)結(jié)構(gòu)的神經(jīng)網(wǎng)絡(luò)建模與類人學習研究中取得了突破性的研究。
從計算機誕生起,人們就不斷要求它的計算能力提升,隨著芯片集成性越來越高,CPU與內(nèi)存之間的性能差距越來越大?;隈T諾依曼結(jié)構(gòu)的計算機結(jié)構(gòu)呈現(xiàn)的缺點也愈加明顯,也有人稱這為內(nèi)存墻,意思是說CPU再快,也要等內(nèi)存。相比之下,人腦卻沒有此類問題出現(xiàn),據(jù)研究表明,人類大腦平均每秒可執(zhí)行 1 億億次操作,所需能量只有 10~25 瓦特。因而研究員們正轉(zhuǎn)向模擬人類大腦研究,試圖通過模擬人腦運轉(zhuǎn)機制,使計算機能低能耗高功效地進行計算,甚至使計算機優(yōu)于類人的智能。
國內(nèi)外有許多公司和機構(gòu)正在類腦芯片研發(fā)上投入大量精力,美國在此項研究上開始較早,2014年IBM就推出了業(yè)內(nèi)首款類腦芯片TrueNorth。國內(nèi)最近幾年在芯片研發(fā)上也不甘示弱,也有西井科技這樣的初創(chuàng)公司投身到類腦芯片的研發(fā)中來,清華等知名高校也紛紛建立類腦研究中心。
相比于傳統(tǒng)芯片,類腦芯片的確在功耗上具有絕對優(yōu)勢,拿英特爾在本次CES上展出的自我學習芯片Loihi來說,不僅其學習效率比其他智能芯片高100萬倍,而且在完成同一個任務(wù)所消耗的能源比傳統(tǒng)芯片節(jié)省近1000倍。類腦芯片的集成度也非常高,拿浙大推出的“達爾文”芯片來說,其面積為25平方毫米,也就是說邊長只有0.5厘米,但內(nèi)部卻能包含500萬個晶體管。隨著行業(yè)對計算力要求越來越高,馮氏瓶頸將越來越明顯,顛覆傳統(tǒng)架構(gòu)的類腦芯片已為芯片行業(yè)開啟了一扇新的大門。
傳統(tǒng)芯片遇馮·諾依曼瓶頸 模擬神經(jīng)元成新思路
現(xiàn)代計算機基本都基于馮·諾依曼結(jié)構(gòu),它將程序和處理該程序的數(shù)據(jù)用同樣的方式分別存儲在兩個區(qū)域,一個稱為指令集,一個稱為數(shù)據(jù)集。計算機每次進行運算時需要在CPU和內(nèi)存這兩個區(qū)域往復調(diào)用,因而在雙方之間產(chǎn)生數(shù)據(jù)流量。而隨著深度學習算法的出現(xiàn),對芯片計算力的要求不斷提高,馮·諾伊曼瓶頸遇見明顯:當CPU需要在巨大的資料上執(zhí)行一些簡單指令時,資料流量將嚴重降低整體效率,CPU將會在資料輸入或輸出時閑置。
不僅如此,傳統(tǒng)芯片還存在一個大問題就是效率低。芯片在工作時,大部分的電能將轉(zhuǎn)化為熱能,一個不帶散熱器的計算機,其CPU產(chǎn)生的熱量就可在短時間內(nèi)將其自身融化。其他的智能化設(shè)備,也因芯片復雜耗能太高,導致續(xù)航能力差,不管如何改善工藝,高溫和漏電都是難以避免的問題。
為了解決CPU在大量數(shù)據(jù)運算效率低能耗高的問題,目前有兩種發(fā)展路線:一是延用傳統(tǒng)馮諾依曼架構(gòu),主要以3中類型芯片為代表:GPU、FPGA、ASIC;二是采用人腦神經(jīng)元結(jié)構(gòu)設(shè)計芯片來提升計算能力,已完全擬人化為目標,追求在芯片架構(gòu)上不斷逼近人腦,這類芯片被稱為類腦芯片。
人腦神經(jīng)元在接受到刺激后,其細胞膜內(nèi)外帶電離子分布將發(fā)生變化,因而形成電位差,電位差將沿著神經(jīng)細胞軸突、樹突雙向傳導,形成脈沖電流。而當該電信號傳遞到突觸時,突觸前神經(jīng)元將釋放神經(jīng)遞質(zhì)(如多巴胺、腎上腺素)由突觸后神經(jīng)元接受神經(jīng)遞質(zhì)產(chǎn)生興奮(該過程單向傳遞),并向下傳遞作用與人體反應(yīng)器并發(fā)生反應(yīng)。
類腦芯片架構(gòu)就是模擬人腦的神經(jīng)突觸傳遞結(jié)構(gòu)。眾多的處理器類似于神經(jīng)元,通訊系統(tǒng)類似于神經(jīng)纖維,每個神經(jīng)元的計算都是在本地進行的,從整體上看神經(jīng)元們分布式進行工作的,也就是說整體任務(wù)進行了分工,每個神經(jīng)元只負責一部分計算。在處理海量數(shù)據(jù)上這種方式優(yōu)勢明顯,并且功耗比傳統(tǒng)芯片更低。比如IBM的TrueNorth芯片每平方厘米功耗消耗僅為20毫瓦。
類腦芯片雖面世 但大規(guī)模商用進展緩慢
相比于依靠馮諾依曼結(jié)構(gòu)的GPU、FPGA、ASIC來說,類腦芯片是一種相對處于概念階段的集成電路。目前面世的類腦芯片并不多,更不要說大規(guī)模的商業(yè)化了。
美國為保持技術(shù)優(yōu)勢,率先發(fā)起類腦計算芯片的相關(guān)研究工作,通過模仿人腦工作原理,使用神經(jīng)元和突觸的方式替代傳統(tǒng)馮諾依曼架構(gòu)體系,使芯片能夠進行異步、并行、低速和分布式處理信息數(shù)據(jù),并具備自主感知、識別和學習的能力。因此市面上第一款類腦芯片就來自于美國的IBM公司。
1、IBM TrueNorth(SyNAPSE芯片)
2011年8月,IBM率先在類腦芯片上取得進展,他們在模擬人腦大腦結(jié)構(gòu)基礎(chǔ)上,研發(fā)出兩個具有感知、認知功能的硅芯片原型。但因技術(shù)上的限制,IBM戲稱第一代TrueNorth為“蟲腦”。2014年TrueNorth第二代誕生,它使用了三星的28nm的工藝,共用了54億個晶體管,其性能相比于第一代有了不少提升。功耗每平方厘米消耗僅為 20 毫瓦,是第一代的百分之一,直徑僅有幾厘米,是第一代的十五分之一。
▲IBM Truenorth芯片
每個核都簡化模仿了人類大腦神經(jīng)結(jié)構(gòu),包含256個“神經(jīng)元”(處理器)、256個“軸突”(存儲器)和64000個突觸(神經(jīng)元和軸突之間的通信)。總體來看,TrueNorth芯片由4096 個內(nèi)核,100 萬個 “神經(jīng)元”、2.56 億個 “突觸” 集成。此外,不同芯片還可以通過陣列的方式互聯(lián)。
IBM稱如果 48 顆TrueNorth芯片組建起具有 4800 萬個神經(jīng)元的網(wǎng)絡(luò),那這48顆芯片帶來的智力水平將相似于普通老鼠。
從2014年亮相后,這款芯片一直沒有大的動作。不久前,TrueNorth終于傳出了新進展,有報道稱IBM公司即將開發(fā)由64個“TrueNorth”類腦芯片驅(qū)動的新型超級計算機。這一計算機能進行大型深度神經(jīng)網(wǎng)絡(luò)的實時分析,可用于高速空中真假目標的區(qū)分,并且功耗比傳統(tǒng)的計算機芯片降低4個數(shù)量級。如果該系統(tǒng)功耗可以達到人腦級別,那么理論上就可以在64顆芯片原型基礎(chǔ)上進一步擴展,從而能夠同時處理任何數(shù)量的實時識別任務(wù)。
2、英特爾Loihi芯片
▲英特爾神經(jīng)擬態(tài)芯片Loihi
幾日前的CES上芯片巨頭英特爾展示了其首款自學習神經(jīng)元芯片Loihi,去年9月英特爾就曾宣稱歷時十年研究設(shè)計出了這款芯片的原型。Loihi芯片可以像人類大腦一樣,通過脈沖或尖峰傳遞信息,并自動調(diào)節(jié)突觸強度,通過環(huán)境中的各種反饋信息,進行自主學習、下達指令。據(jù)英特爾方面稱Loihi內(nèi)部包含了128個計算核心,每個核心集成1024個人工神經(jīng)元,總計13.1萬個神經(jīng)元,彼此之間通過1.3億個突觸相互連接。
相比于人腦內(nèi)的800多億個神經(jīng)元,Intel這款芯片的運算規(guī)模僅僅比蝦腦大一點。但根據(jù)英特爾給出的數(shù)據(jù)Loihi的學習效率比其他智能芯片高100萬倍,而在完成同一個任務(wù)所消耗的能源可節(jié)省近1000倍。
3、高通Zeroth芯片
芯片巨頭高通也在進行類腦芯片的研發(fā),早在2013年高通就曾公布一款名為Zeroth的芯片,Zeroth不需要通過大量代碼對行為和結(jié)果進行預編程,而是通過類似于神經(jīng)傳導物質(zhì)多巴胺的學習(又名“正強化”)完成的。高通為了讓搭載該芯片的設(shè)備能隨時自我學習,并從周圍環(huán)境中獲得反饋,還為此開發(fā)了一套軟件工具。在公布的資料中高通還用裝載該芯片的機器小車進行了演示,使小車在受人腦啟發(fā)的算法下完成尋路、躲避障礙等任務(wù)。
國內(nèi)也開始了類腦芯片的研究,除清華等知名高校開設(shè)研究院外,也出現(xiàn)了專注類腦芯片研發(fā)的創(chuàng)企,代表企業(yè)如上海的西井科技。
4、西井科技DeepSouth芯片
西井科技是國內(nèi)研究類腦強人工智能的公司,目前西井已推出了自主研發(fā)的擁有100億規(guī)模的神經(jīng)元人腦仿真模擬器(Westwell Brain)和可商用化的5000 萬類腦神經(jīng)元芯片(DeepSouth)兩款產(chǎn)品。 DeepSouth 是一款可商用化的芯片,它能模擬出高達 5000 萬級別的“神經(jīng)元”,總計有 50 多億“神經(jīng)突觸”。據(jù)西井CEO譚黎敏稱,該芯片除了具備“自我學習、自我實時提高”的能力外,還可以直接在芯片上完成計算,不需要通過網(wǎng)絡(luò)連接后臺服務(wù)器,可在“無網(wǎng)絡(luò)”情況下使用。
能耗方面,DeepSouth 在同一任務(wù)下的功耗僅為傳統(tǒng)芯片的幾十分之一到幾百分之一。
5、浙大“達爾文”類腦芯片
▲浙大和杭州電子科技共同研發(fā)的“達爾文”芯片
2015年一群來自浙江大學與杭州電子科技大學的年輕的研究者們研發(fā)出一款成為達爾文的類腦芯片。這款芯片是國內(nèi)首款基于硅材料的脈沖神經(jīng)網(wǎng)絡(luò)類腦芯片。“達爾文”芯片面積為25平方毫米,比1元硬幣還要小,內(nèi)含500萬個晶體管。芯片上集成了2048個硅材質(zhì)的仿生神經(jīng)元,可支持超過400萬個神經(jīng)突觸和15個不同的突觸延遲。
據(jù)研發(fā)團隊介紹說,這款芯片可從外界接受并累計刺激,產(chǎn)生脈沖(電信號)進行信息的處理和傳遞,這如我們前面提到的人類神經(jīng)元間的信息傳遞一樣。研發(fā)人員還為“達爾文”開發(fā)了兩款簡單的智能應(yīng)用。一是這款芯片可識別不同人手寫的1-10這10個數(shù)字,二是“達爾文”在接受了人類腦電腦后,可控制電腦屏幕上籃球的移動方向。在熟悉并學習了操作者的腦電波后,“達爾文”會在后續(xù)接受相同刺激時做出同樣反映。
6、AI-CTX芯片
此外,國內(nèi)也出現(xiàn)了一些小型的類腦芯片研究團隊,如AI-CTX團隊。據(jù)稱他們目前設(shè)計出了一款類腦芯片模型,不僅每個神經(jīng)元都具有跟人腦神經(jīng)元類似的電學特征與動態(tài)參數(shù),具有簡單的運算與存儲功能。他們還采用了一種特殊的布線方式,使各芯片之間的交流突破物理限制,進而增加芯片群組的原有網(wǎng)絡(luò)。這一芯片不適合處理靜態(tài)硬盤數(shù)據(jù),但擅長處理如溫度、氣壓、人體信號、loT等包含時間參數(shù)的數(shù)據(jù)。
雖然目前市面上出現(xiàn)了幾款類腦芯片,但其在計算力上還不及傳統(tǒng)架構(gòu)芯片快。為了提升計算機對大規(guī)模數(shù)據(jù)的運算效率,芯片企業(yè)現(xiàn)在最常見的做法就是基于傳統(tǒng)芯片架構(gòu),搭載人工神經(jīng)網(wǎng)絡(luò),從功能上模擬人腦計算的GPU、FPGA·、ASIC三種芯片,加上類腦芯片,并稱為AI芯片。
類腦計算成新方向
人腦的這三大特性始終是計算機無法比擬的:一是低能耗,人腦的功率大約為20瓦,而目前計算機功耗需要幾百萬瓦;二是容錯性,人腦時刻都在失去神經(jīng)元,而計算機失去一個晶體管就會破壞整個處理器;三是無需編程,大腦在于外界交互過程中自發(fā)學習和改變,并非遵循預先設(shè)計好的算法。
中國也十分重視類腦研究,并將類腦計算作為國家戰(zhàn)略發(fā)展的制高點。中國不僅在2015年將腦計劃作為重大科技項目列入國家“十三五”規(guī)劃,還發(fā)布了關(guān)于腦計劃“一體兩翼”的總體戰(zhàn)略:一體即認識腦:以闡釋人類認知的神經(jīng)基礎(chǔ)為主體和核心;兩翼即保護腦:預防、診斷和治療腦重大疾病和模擬腦:類腦計算。
中國的學術(shù)界也展開了對類腦的研究,2015 年中科院、清華、北大,相繼成立“腦科學與類腦智能研究中心”,2017年5月在合肥成立了類腦智能技術(shù)及應(yīng)用國家工程實驗室。這些實驗室將借鑒人腦機制攻關(guān)人工智能技術(shù),推進類腦神經(jīng)芯片、類腦智能機器人等新興產(chǎn)業(yè)發(fā)展。
結(jié)語:類腦芯片或?qū)①x予機器智能
目前,搭載神經(jīng)網(wǎng)絡(luò)引擎的芯片層出不窮,芯片巨頭和初創(chuàng)們都在原有的馮諾依曼架構(gòu)上爭相利用神經(jīng)網(wǎng)絡(luò)優(yōu)化芯片計算力。從目前這類AI芯片的表現(xiàn)上看,F(xiàn)PGA的靈活性較好但開發(fā)難度大,ASIC因其功耗低、開發(fā)難度適中將在終端AI芯片上具有較大優(yōu)勢。
類腦芯片不僅能提高計算機的計算速度、降低功耗,其在國防領(lǐng)域也將發(fā)揮重要作用,對研發(fā)高度自主性的智能機器人以及提高其他設(shè)備的智能水平也有重要意義。就讓機器實現(xiàn)智能這一人工智能終極理想來說,從人類自身結(jié)構(gòu)出發(fā)是一可選思路,但并非僅此一種。
從現(xiàn)在各大公司的研究成果來看,像IBM TrueNorth這樣的類腦芯片運行的效率還不及以上提到的在傳統(tǒng)架構(gòu)上運用神經(jīng)網(wǎng)絡(luò)的芯片。但馮諾依曼瓶頸是客觀存在的事實,隨著運算數(shù)據(jù)量的增加,這一短板將越來越明顯。
而人腦也的確憑借低功耗、高運算力成為計算機芯片研發(fā)學習的方向,但短期內(nèi)類腦芯片還難以表現(xiàn)出其優(yōu)勢,或許隨著對人腦研究的深入,會有人像牛頓一樣被“上帝的蘋果”砸中,從而擁有敲開具有高速運算力的類腦芯片領(lǐng)域的敲門磚?;蛟S現(xiàn)在的傳統(tǒng)架構(gòu)加神經(jīng)網(wǎng)絡(luò)芯片就是像牛頓的萬有引力定律一樣適用于數(shù)據(jù)量較大的運算,而類腦芯片像愛因斯坦的相對論一樣在實現(xiàn)機器智能上更具潛力。
推薦閱讀:
深度解析半導體激光器發(fā)光原理及工作原理
傳感器開始轉(zhuǎn)變需求——低功耗需求轉(zhuǎn)變成準確度的高要求
如何運用中間電壓提高電源轉(zhuǎn)換效率?
一文了解智能駕駛核心激光雷達