所有AI處理器都仰賴于資料集,也就是「學(xué)習(xí)過的」物件種類模型,用以執(zhí)行識別功能;每個物件的識別和分類都需要多次存取記憶體,而當(dāng)今工程師面臨的最大挑戰(zhàn)就是如何克服現(xiàn)有架構(gòu)中的記憶體存取速度和功耗瓶頸…
機器學(xué)習(xí)有兩個基本階段:訓(xùn)練和推理。人工神經(jīng)網(wǎng)路旨在模仿大腦的運作方式,首先要讀取大量的已知資料——例如狗和貓的圖片——這樣才能學(xué)會識別每個物體的樣子以及它們的不同之處;然后經(jīng)過訓(xùn)練的神經(jīng)網(wǎng)路或模型就可以開始工作,根據(jù)所學(xué)到的知識推斷呈現(xiàn)在面前的新資料是什么事物,例如判別影像中的是狗還是貓。
目前大多數(shù)訓(xùn)練都是在資料中心進行的,但也有少數(shù)是在邊緣端進行。像Google、Facebook、Amazon、Apple和Microsoft這樣的大公司都擁有大量消費者資料,因此可以為他們的「伺服器農(nóng)場」提供足夠多的資料進行工業(yè)規(guī)模的AI訓(xùn)練,以改善其演算法。訓(xùn)練階段需要速度非常高的處理器,例如繪圖處理器(GPU)或Google開發(fā)的張量處理器(TPU)。
當(dāng)邊緣裝置收集到資料——例如建筑物或人臉的照片——并傳送到推理引擎進行分類時,推理就會發(fā)生。以云端為基礎(chǔ)的AI因為固有的延遲缺點,對許多應(yīng)用來說是不可接受的;例如自動駕駛車需要對看到的物體做出即時決策,這以云端AI架構(gòu)就不可能實現(xiàn)。
隨著AI功能逐漸向邊緣端發(fā)展,它們將推動更多的AI應(yīng)用,而且這些應(yīng)用會越來越需要更強大的分析能力和智慧,好讓系統(tǒng)在本地即可做出運作決策,無論是部分還是完全自主的,就像自動駕駛車輛所配備的功能。
傳統(tǒng)CPU不是很擅長這類任務(wù),而高階GPU則是功耗大、價格昂貴;邊緣端推理需要更便宜、功率更低的晶片,可快速透過神經(jīng)網(wǎng)路識別一種動物、一張臉,鎖定一個腫瘤,或?qū)⒌抡Z翻譯成英語。如今有超過30家公司正在研發(fā)AI專用的硬體,以提高在智慧型手機、平板電腦和其他邊緣裝置中完成這類特殊運算任務(wù)的效率。
分析師們預(yù)測,從2017~2021年,全球AI晶片市場將取得高達54%的年復(fù)合成長率(CAGR),其關(guān)鍵成長動力在于能滿足機器學(xué)習(xí)要求的強大硬體。
所有AI處理器都仰賴于資料集,也就是「學(xué)習(xí)過的」物件種類(如影像、聲音等等)模型,用以執(zhí)行識別功能;每個物件的識別和分類都需要多次存取記憶體,而當(dāng)今工程師面臨的最大挑戰(zhàn)就是如何克服現(xiàn)有架構(gòu)中的記憶體存取速度和功耗瓶頸,以實現(xiàn)更快的資料存取,同時降低資料存取消耗的能源成本。
透過在盡可能接近AI處理器核心的位置儲存訓(xùn)練資料,可獲得最快存取速度和最大能效;但是目前的設(shè)計所采用之儲存架構(gòu),都是幾年前還沒有其他實用解決方案時打造的,仍然是速度快但小容量的嵌入式SRAM與大容量但速度較慢的外部DRAM之傳統(tǒng)組合。當(dāng)訓(xùn)練模型以這種方式儲存,嵌入式SRAM、外部DRAM和神經(jīng)網(wǎng)路之間頻繁且大規(guī)模的資料交換會增加功耗及傳輸延遲;此外,SRAM和DRAM都是揮發(fā)性記憶體,限制了在待機狀態(tài)的省電效果。
利用高密度、高速和低功耗的非揮發(fā)性記憶體將整個訓(xùn)練模型直接儲存在AI處理器晶片上,就可以實現(xiàn)更高的能效和速度。透過實現(xiàn)以記憶體為中心的新架構(gòu)(如圖1),整個訓(xùn)練模型或知識庫就可以放在晶片上,直接與神經(jīng)網(wǎng)路連結(jié),這樣就有實現(xiàn)大規(guī)模節(jié)能與性能提升的潛力,并因此能大幅延長電池壽命并提供更好的用戶體驗?,F(xiàn)在已經(jīng)有幾種新一代記憶體技術(shù)正競相實現(xiàn)此一目標(biāo)。
圖1 記憶體位于AI架構(gòu)中心
針對AI應(yīng)用的理想非易失性嵌入式記憶體應(yīng)該具備如下特點:容易制造、容易整合到成熟的CMOS后段制程、容易微縮到先進制程節(jié)點、可大量供應(yīng),并且能夠滿足各種應(yīng)用對功耗和速度的要求。
在制程微縮方面,電阻式記憶體(ReRAM)會比磁性記憶體(MRAM)或相變化記憶體(PCM)更具優(yōu)勢,這在考量14奈米、12奈米甚至是7奈米晶圓制程時是一個重要因素;其他記憶體技術(shù)都需要比ReRAM更復(fù)雜和昂貴的制程,運作功耗也更高。
圖2 ReRAM可以填補記憶體技術(shù)的空白
舉例來說,美國業(yè)者Crossbar的ReRAM所采用之奈米絲(nanofilament)技術(shù),可以在不影響性能的情況下微縮到10奈米以下。ReRAM以簡單的元件結(jié)構(gòu)為基礎(chǔ),采用適合CMOS制程的材料和標(biāo)準(zhǔn)生產(chǎn)流程,可以在現(xiàn)有的CMOS晶圓廠生產(chǎn);因為是一種低溫、后段制程整合的方案,可以在CMOS邏輯晶圓上整合多層ReRAM陣列,以構(gòu)建3D ReRAM儲存架構(gòu)。
AI需要最佳的每瓦性能,尤其對于小功率的邊緣裝置;ReRAM的能效可達到DRAM的五倍——達到每奈焦(nanojoule) 1,000位元的讀取—同時表現(xiàn)出比DRAM更好的整體讀取性能,高達12.8GB/s,隨機延遲小于20ns。
科學(xué)家們一直在探索各種新穎的大腦啟發(fā)典范,試圖透過模仿中樞神經(jīng)系統(tǒng)的神經(jīng)元和突觸(synapses)之交互作用來實現(xiàn)更高的能效。以ReRAM技術(shù)為基礎(chǔ)的人工神經(jīng)突觸是一種非常有前途的方法,可用于在神經(jīng)形態(tài)結(jié)構(gòu)中實現(xiàn)這些高密度且能終極微縮的突觸陣列。藉由在邊緣端啟動AI,ReRAM有可能在現(xiàn)有和全新的AI解決方案中扮演重要角色。