英特尔下一个时代的“CPU”:10倍以上性能提升,1000倍能耗降低
芯片行業有一種說法:“算力可以換一切”。
也就是當芯片算力足夠大的時候,許多難題都能迎刃而解,這也解釋了摩爾定律如此受關注的原因。但隨著AI、大數據的發展,傳統的芯片越來越難以滿足新興應用的需求,業界需要全新類別的芯片。
量子計算、神經擬態計算(也稱類腦計算)是兩個重要的突破方向。相比量子計算,神經擬態計算的關注度略低一些,但神經擬態計算已經被英特爾證明在一些應用中,可以帶來至少10倍的性能提升,同時實現1000倍的能耗降低。
從某種意義上來說,無論是英特爾正在探索的量子計算還是神經擬態芯片,都有可能成為地位可以比肩現有CPU的“下一個時代的CPU”。
Mike說至少要在3年后才可能看到英特爾正式推出神經擬態的商業化產品,但Loihi已經取得的成果值得我們期待神經擬態芯片的時代。
談論神經擬態芯片的優勢之前,先解釋一下神經擬態計算這種全新的計算方式。神經擬態計算受到生物學原理的啟發,基于對現代神經科學的理解,從晶體管到架構設計,算法以及軟件來模仿人腦的運算。
神經擬態計算與傳統芯片和傳統處理方式有很多不同,比如,人腦中沒有單獨的存儲器,沒有動態隨機存取存儲器,沒有哈希層級結構,沒有共享存儲器等等。“存儲”和“處理器”錯綜復雜地深繞在人腦里,在人腦的結構中有“神經元”的存在。
系統編程層面也有很大的區別,傳統的CPU或GPU結構以順序操作或指令/程序來思考,在神經擬態芯片中,計算過程需要神經元單元的互動。神經擬態芯片處理答案的步驟也許不按照程序的執行步驟,更多的是根據動態的交換反應。
當然也有相似之處,在電腦中,以數字化核心相互交流基于事件的信息,叫做脈沖,這點和人腦傳遞信息的方式相似。
相比傳統計算與神經擬態計算原理的區別,更多人應該更加關心神經擬態計算表現在應用中的優勢。Mike說:“有一系列問題人腦可以很好地處理,所以我們可以期待神經擬態計算對于真實數據的處理速度或反應時延的性能效率提升,尤其是對于真實數據樣本的適應力或快速學習能力的提升。”
2017年時,英特爾就對外公布了其第一代神經擬態芯片Loihi,隨后便開始與業界共同探索神經擬態計算的可能性和可以發揮優勢的場景,并建立了神經擬態研究社區(INRC),如今已經有將近150個成員機構。
INRC今年新增的成員包括福特(Ford)、佐治亞理工學院(Georgia Institute of Technology)、美國西南研究院(SwRI)、美國菲力爾公司(Teledyne FLIR)。
比如氣味傳感器,與基于傳統深度學習的方法相比較,神經擬態計算可以有效地學習多達三千倍的數據。
在機器人學習方面,基于神經擬態計算也展現出在機器手臂系統變化中的魯棒性,在一些實時出現的偏差中,Loihi也可以識別到,然后可以回歸預期軌道重新布局電路。
“過去的幾個月中,神經擬態計算在量化優化領域取得了非常好的結果。”Mike興奮的表示。
相比而言,英特爾與德國鐵路公司的合作更能展現神經擬態計算未來的應用前景。Mike介紹,“使用Loihi解決鐵路調度問題,速度比德國鐵路公司運營的Dion's使用的先進商業云計算處理器快一個數量級以上,這是1000倍的低能耗。這表明高階規劃決策優化問題可以在以前根本不可能實現的形式因素中得到支持。”
還有一個例子,一些早期的研究顯示,熱擴散方程(一個基本的物理行為屬性)已經在Loihi中建模,桑迪亞國家實驗室完成的這項研究極大地減少了科學計算存在功耗過大方面問題的可能性。
“我們對Loihi的結果非常滿意。但與此同時,我們發現了硬件的一些限制。”Mike同時指出。
“我們有了一個編程性極強的神經元,可配置性極強的神經元模型,但它是一個固定功能類型的神經元。”Mike進一步表示,“自然界沒有單一的神經元,實際上有1000種不同類型的神經元,它們在大腦中有許多不同類型的動態。我們想嘗試支持的應用確實需要更多的靈活性,以使芯片中的神經元更加多樣化。”
雷鋒網了解到,英特爾通過一個微碼指令集來解決靈活性的問題,這個微碼指令集定義了神經元模型,幾乎可以編程任意的模型,涵蓋了研究界試圖探索的不同類型的方法。
“我們還擴展了脈沖的概念,這將提升結果的精確度,還可以縮小網絡的大小,以支持特定的問題。”Mike介紹,“在功能上,我們在Loihi2上還加強了芯片的學習能力。”
這些研究層面和功能層面的進步需要更強大的硬件支撐。在電路層面,Loihi 2比Loihi 1快2到10倍,這取決于特定的瓶頸和你測量的特定參數。例如,基于模擬的結果顯示,在前饋神經網絡中,Loihi2比Loihi快10倍。
工作負荷層面,Loihi2的神經元的數量提升了8倍,同時將芯片的面積縮小了一半(芯片總內存大致相同),即基于核心大小為0.21 mm2的Loihi 2,最多支持 8192個神經元,對比核心尺寸為0.41 mm2的Loihi,最多支持1024個神經元。
Mike解釋,“第一代Loihi做了固定分配,芯片中的每個核心都支持1024個神經元。但我們發現,在許多應用中,神經元的數量是一個有限的因素,芯片中的其它內存資源卻沒有得到充分利用。因此,Loihi 2的架構允許資源在有限的程度上進行交換,同時不影響架構的格式和效率,從而當應用工作負載受限于神經元數量時(通常會發生),能夠提供更多的資源來擴展到更多的神經元。”
與此匹配,需要先進的半導體制造工藝。“神經擬態計算的架構相對于其他架構需要更大的資源密度,Intel 4制程能夠提供更大的晶體管密度,我們可以在同樣大小的芯片上放置更大的神經網絡。”Mike還說,
“與以往的制程技術相比,Intel 4制程節點采用的極紫外光刻(EUV)技術簡化了布局設計規則,使Loihi 2的快速開發成為可能。”
采用預生產版本的Intel 4制程其實還有英特爾展示其先進制程領導力的作用。需要指出的是,神經擬態架構是一個非常同質的架構,這對于仍處于產量優化過程中的早期工藝來說有很大優勢,因為它可以容忍大量的缺陷。
“神經擬態架構比其他架構更能夠從Intel4預生產過程中受益。”Mike表示。
不過,要解決更多實際問題還需要用Loihi2構建系統。為此,Loihi2的擴展能力也進行了提升,有了4倍速度的接口,還新增了兩個接口,可以在3個維度上進行擴展。
同時,Loihi2對芯片間的連接進行了壓縮,讓許多工作負載的擴展提供了10倍以上的帶寬,在減少擁堵和該架構擴展到更大網絡的能力方面,綜合提高了60倍以上。
縱觀成功的CPU和GPU,都有非常易于使用軟件及軟件生態。顯然,神經擬態計算芯片想要成為像CPU一樣的通用芯片,軟件非常關鍵。
此前,想要使用神經擬態芯片,都需要從頭開始開發軟件,這就像每個人都在重新創造世界。借鑒深度學習領域成功的TensorFlow和PyTorch,加上在神經擬態領域的經驗和需求分析,英特爾專為神經擬態計算打造了開源軟件框架Lava。
我們現在已經在GitHub上發布了這個軟件框架,它借鑒了英特爾在這個領域觀察到的東西,也借鑒了英特爾第一代軟件開發獲得的經驗,也就是稱之為NX軟件開發工具包的NX SDK。”
開源框架Lava有一個重要特性,無論是將應用程序的成分映射到傳統的CPU或GPU上,還是將其分解成神經過程然后運行在神經擬態芯片上都可以。
雷鋒網(公眾號:雷鋒網)了解到,Lava使用的是Python語言,這在一定程度減輕了采用Lava的難度。
Mike對雷鋒網表示,“可以嘗試輕松過渡到使用神經形態芯片,但我們認為最大的挑戰還是當前編程所需要使用的特定語言。在未來,我們或其他為Lava做出貢獻的人可能會引入新的語言或特定領域的語言,因為很明顯它可以提高生產力。”
對于英特爾而言,全面的產品組合是其保持當下以及可見的未來競爭力的關鍵。而對神經擬態計算和量子計算的探索,則關乎長遠未來的技術領導力。正如Mike所說,神經擬態計算的大規模商用還有很長一段路要走,但英特爾一旦商用神經擬態計算芯片,瞄準的是十億美元的市場。
也就是說,英特爾研究神經擬態計算和量子計算,瞄準的是下一個CPU/GPU級別的產品。
Loihi已經取得的成果,以及如今宣布的Loihi2,不僅能夠釋放出其在先進計算領域的進展,更能通過Intel4制程將其現在的競爭力和未來的競爭力很好地連接在一起,共同展示英特爾的未來。
但在先進計算的探索中,除了需要實力,也需要運氣。
總結
以上是生活随笔為你收集整理的英特尔下一个时代的“CPU”:10倍以上性能提升,1000倍能耗降低的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 买房贷款固定利率好还是浮动利率好?
- 下一篇: OPPO登上央视:重阳节OPPO为百名老