会议重点介绍芯片设计中的人工智能
會議重點介紹芯片設(shè)計中的人工智能
Conference highlights AI in chip design, IoT
舊金山-谷歌正在試驗機器學(xué)習(xí)(ML)來執(zhí)行IC設(shè)計中的地點和路線,并取得了很好的效果。上周在這里舉行的ISSCC會議上宣布的這一發(fā)現(xiàn),對人工智能(AI)和電路設(shè)計同樣重要。
人工智能多年來一直是電子行業(yè)中規(guī)模最大的東西,推動了半導(dǎo)體研究的巨大發(fā)展(同時也帶來了風(fēng)險投資和頭條新聞)。承認這一點是顯而易見的,今年集成固態(tài)電路會議(ISSCC)的主題是“集成電路為AI時代提供動力”,開幕式全體會議旨在描繪人工智能在多大程度上扭曲了半導(dǎo)體空間。
四位全會發(fā)言人解釋了人工智能的需求如何推動一種新的處理器類別的發(fā)展,這些處理器是專門為人工智能應(yīng)用而設(shè)計的(除了cpu和gpu);推動了結(jié)構(gòu)的創(chuàng)新(例如芯片、多芯片封裝、中間層);甚至影響了量子計算的發(fā)展。
全體會議的第一位發(fā)言人是谷歌人工智能的負責(zé)人杰夫·迪恩。Dean發(fā)表了一份機器學(xué)習(xí)(ML)概述的更新,他已經(jīng)以一種或另一種形式呈現(xiàn)了一年多,以引導(dǎo)對ML place and route工具的討論。
人類專家在放置和布線ASIC設(shè)計方面的結(jié)果與低功耗ML加速器芯片的結(jié)果進行了比較。谷歌故意掩蓋了部分圖片。
他首先簡要回顧了人工智能和人工智能的歷史,從1995年學(xué)會玩西洋雙陸棋的機器開始,在學(xué)習(xí)國際象棋和圍棋的機器上運行,現(xiàn)在可以處理復(fù)雜的電子游戲,如“星際爭霸”,而且“非常成功”。ML還被用于醫(yī)學(xué)成像、機器人技術(shù),計算機視覺、自動駕駛車輛、神經(jīng)科學(xué)(分析腦部掃描顯微鏡)、農(nóng)業(yè)、天氣預(yù)報等等。
幾十年來推動計算的基本思想是,問題越大,你投入的處理能力就越大,你擁有的處理能力越強,你能解決的問題就越大。有一段時間,這適用于用人工智能解決問題。
當問題空間變得令人難以置信的巨大時,根本不可能積累足夠的cpu(和/或gpu)來解決它們。
然而,AI/ML并不需要典型的CPU/GPU電源。所需的數(shù)學(xué)可以更簡單,要求的精度要少得多。這種實現(xiàn)帶來了實際的后果:專用于AI/ML的處理器不必像cpu/gpu那樣復(fù)雜。
這是導(dǎo)致設(shè)計用于推理的專用處理器的基本見解之一,比如谷歌自己的TensorFlow處理器,現(xiàn)在已經(jīng)是第三代了。順便說一句,人們普遍認為谷歌會在最近的某一天推出第四代TensorFlow,但如果有人希望谷歌能在ISSCC上透露有關(guān)它的任何信息,那么這些希望就破滅了。
在認識到推理需要較少的精度之后,認識到訓(xùn)練也需要更少的精度,這是相對較新的認識。《經(jīng)濟時報》編輯莎莉·沃德·福克斯頓(Sally Ward Foxton)在她最近的博客《人工智能獲得自己的數(shù)字系統(tǒng)》中解釋了這個概念。
AI/ML處理器可以相對簡單,因此相對便宜,而且我們現(xiàn)在擁有的AI/ML處理器功能強大,即使在龐大的數(shù)據(jù)集上也可以快速訓(xùn)練。迪恩解釋說,所有這些都使機器學(xué)習(xí)更容易深入到網(wǎng)絡(luò)邊緣。語音識別就是一個具體的例子;迪恩說,截至2019年,谷歌已經(jīng)有了一個相當緊湊的智能手機模型。
每個人工智能應(yīng)用程序-自動駕駛,醫(yī)學(xué)成像,玩圍棋-結(jié)果調(diào)整一個專用的AI/ML系統(tǒng)學(xué)習(xí)每一個。我們基本上每個應(yīng)用程序都有一個人工智能。下一個問題是:有沒有可能讓一個學(xué)會了一件事的人工智能,然后看看它能否將所學(xué)知識應(yīng)用到其他類似的任務(wù)中?
迪恩說:“我提出這個問題是因為我們開始考慮在ASIC設(shè)計中使用它作為位置和路徑。“地點和路線的游戲遠比圍棋的游戲大得多。問題的規(guī)模更大,盡管沒有像go那樣明確的目標。”
Google為地點和路線創(chuàng)建了一個學(xué)習(xí)模型,然后開始尋找這個工具是否可以推廣。它能把它在一個設(shè)計上學(xué)到的東西應(yīng)用到一個從未見過的新設(shè)計上嗎?答案是毫不含糊的“是”
此外,迪恩說,“我們已經(jīng)得到了超人的結(jié)果,所有的街區(qū),我們已經(jīng)嘗試到目前為止。它做得稍微好一點,有時甚至比人類好得多。
Google比較了使用機器學(xué)習(xí)(ML)自學(xué)如何分配和路由ASIC組件的AI的性能。測試電路是幾個不同的模塊,包括一個Ariane RISC-vcpu。Google比較了同一個ML在進行漸進式的額外調(diào)優(yōu)后的性能,所有這些都與商業(yè)工具的性能進行了比較。
“更好”包括在非常短的時間內(nèi)演示地點和路線。可能需要一個人類專家?guī)字芑驇字懿拍芡瓿蛇@項任務(wù)。Dean報告說,ML放置器通常在24小時內(nèi)完成同樣的工作,其布局通常具有較短的線長度。ML分配在自動分配和路由工具上也做得很好。(閱讀《EDA中的機器學(xué)習(xí)加速設(shè)計周期》(Machine learning in EDA accelerates design cycle)中有關(guān)ML和位置和路徑的更多信息,請參閱《EE時報》姊妹刊物EDN中由Cadence的Rod Metcalfe撰寫)
Dean說,ML也可以擴展到IC設(shè)計過程的其他部分,包括使用ML來幫助生成測試用例,這些測試用例在ASIC設(shè)計驗證中更充分地運用狀態(tài)空間,也可能使用ML來改進高層綜合,從而從高層描述中得到更優(yōu)化的設(shè)計。
然而,所有這些對于ML來說意味著什么,和它對加速IC設(shè)計進度的意義一樣重要。如果一個ML可以在一個類別中進行泛化,那么它是否可以泛化為在其他類別中執(zhí)行任務(wù)?
“未來的ML模型會是什么樣子?”迪恩問道。“我們能訓(xùn)練一個模型來概括類似的任務(wù)嗎?理想情況下,我們需要一種能夠?qū)W習(xí)完成數(shù)千或數(shù)百萬項任務(wù)的模型。”
The artificial intelligence Internet of things (AIoT)
人工智能物聯(lián)網(wǎng)
聯(lián)發(fā)科技高級副總裁兼首席戰(zhàn)略官高鴻“勞倫斯”盧(音)談到人工智能如何改變所有與互聯(lián)網(wǎng)相連的事物,人工智能物聯(lián)網(wǎng)(AIoT)將從今天的數(shù)百億臺設(shè)備迅速擴展到2030年全球約3500億臺設(shè)備。
人工智能正在走向邊緣,部分原因是它可以(正如迪恩在前面的課程中所提到的),而且在許多情況下,它不得不這樣做,原因包括減輕數(shù)據(jù)中心日益增長的處理負擔(dān),最小化網(wǎng)絡(luò)上的流量,以及因為一些應(yīng)用程序需要或?qū)⒆詈玫毓ぷ髟诒镜靥幚砩稀?/p>
局部處理必須很快,必須專門為人工智能計算而設(shè)計,而且必須非常節(jié)能。
它們本質(zhì)上是一種新的處理器類別。Loh稱之為人工智能處理器單元(APU)。其他人把它們稱為神經(jīng)處理單元(NPU)、大腦處理單元(BPU)和其他名稱。舉例來說,APU可能不如CPU靈活,但由于是專門制造的,APU可以以比CPU低55倍的速度快20倍。
Loh說,APU的開發(fā)者們正在開發(fā)一種能以3個TOPS/Watt達到1個TOPS的設(shè)備。他說他相信10個TOPS/W是可以實現(xiàn)的。他說,最終有可能以30個TOPS/W的速度達到100個TOPS。
并非巧合的是,聯(lián)發(fā)科的研究人員在ISSCC上發(fā)表了一篇單獨的論文,提出了一個“3.4到13.3TOPS/w3.6的雙核深度學(xué)習(xí)加速器,用于7nm 5G智能手機SoC中的多功能人工智能應(yīng)用。”
在7nm。通過沿著摩爾定律曲線向更小的工藝節(jié)點至少多跑一步,從目前的7nm到5nm,可以獲得性能改進。洛伊說,摩爾定律仍然適用。
然而,并非沒有警告。隨著集成度的增加,晶體管數(shù)量也在增加,繼續(xù)遵循經(jīng)典的摩爾定律曲線,“但是每只晶體管的成本卻沒有遵循,”Loh說。此外,由于芯片設(shè)計的復(fù)雜性,以及工藝步驟變得越來越復(fù)雜,尖端設(shè)備的成本正在飆升,禁止小公司使用這項技術(shù)。還有收益率問題。
Loh說,解決這些問題的一個常見方法是拆分模具。作為一個實際問題,這可能意味著使用諸如芯片技術(shù)之類的方法。他說:“這會導(dǎo)致比摩爾定律更好的結(jié)果。”。無論是芯片還是其他一些架構(gòu)方法,這都意味著互連面臨更多挑戰(zhàn)。
System technology “co-optimization”
系統(tǒng)技術(shù)“協(xié)同優(yōu)化”
Imec的項目總監(jiān)Nadine collarert將全會的主題推進了下一步,討論了分離芯片的必要性,并找出了未來集成電路的替代結(jié)構(gòu)和體系結(jié)構(gòu)。稱之為系統(tǒng)技術(shù)協(xié)同優(yōu)化,或STOC。
摩爾定律很可能適用于未來幾年,但CMOS的規(guī)模越來越具有挑戰(zhàn)性,用一系列越來越復(fù)雜的器件結(jié)構(gòu)的例子來說明這一點,包括(但不限于)finfet、納米片和叉片。
Imec證明了在絕緣體上硅(SOI)背景上以納米脊狀生長未指定的III-V材料的能力。
必須有所付出。我們需要一種新的方法,“我們相信3D技術(shù)是最好的方法。這包括多芯片封裝,使用粘接,甚至在設(shè)備級,與其他標準單元進行精細級連接。”
要想知道要使用哪種技術(shù),需要將系統(tǒng)需求與可用選項的屬性相匹配。“那將是一個復(fù)雜的練習(xí),”科勒特說。這將對EDA供應(yīng)商施加壓力,要求他們提供工具,使設(shè)計者能夠權(quán)衡他們的選擇。
無線通信系統(tǒng)的前端模塊將是一個特殊的挑戰(zhàn)。“一般來說,這些系統(tǒng)是最多樣化的系統(tǒng)-它們有許多不同的組件,采用不同的技術(shù),而且隨著天線、功率放大器、濾波器的增加,這種復(fù)雜性將增加…”
該行業(yè)正朝著更高頻率和更高效率的方向發(fā)展。一種選擇是將III-V材料(例如GaN和SiC)與CMOS結(jié)合,以獲得這兩種材料的優(yōu)點。這可以通過3D集成來實現(xiàn),展示了幾個例子,包括在絕緣體硅(SOI)襯底上生長的帶有III-V材料的3D納米脊的圖像,“但要實現(xiàn)這一點,還需要做很多工作。”
至于回憶?Collarert說:“人工智能和ML等新應(yīng)用正在推動路線圖的發(fā)展。”。他們需要快速存取存儲器。“內(nèi)存計算是一種推動力,隨著邏輯和內(nèi)存的緊密結(jié)合,3D封裝當然非常重要。”
未來,在高級應(yīng)用程序中使用flash將意味著堆砌更多的層。也有改善當前存儲的希望。“要做到這一點,我們必須研究溝道移動性,這意味著要研究III-V材料。”并且,通過擴展,我們將研究一層硅和一層III-V材料堆疊在一起的三維結(jié)構(gòu)。
與此同時,在DRAM中,電容器正從低矮的圓柱體發(fā)展到支柱,這是第三維度的又一次轉(zhuǎn)變。其他內(nèi)存選項包括用于緩存替換的磁存儲器,以及3D存儲類存儲器-科勒特指出,Imec已經(jīng)展示了一種垂直FEFEFET(鐵電場效應(yīng)晶體管),但仍需要更多的研究。
所有這些存儲的發(fā)展,“都是在機器學(xué)習(xí)的背景下進行的。人工智能正在蓬勃發(fā)展。其中很多都是在云端,但出于各種原因,我們希望將其移到邊緣,在那里能源將受到限制。” 與聯(lián)發(fā)科一樣,Imec
als相信達到10K TOPS/W是可能的。
“繼續(xù)擴大規(guī)模。派對還沒結(jié)束!”她總結(jié)道。“新的存儲可能不會出現(xiàn)在路線圖中,但它們可能在機器學(xué)習(xí)中有應(yīng)用。”
量子計算
IBM研究部主任Dario Gil在全會結(jié)束時發(fā)表了“下一步是什么”的演講,他說這是廣義人工智能,幾乎可以肯定這將在量子計算機上實現(xiàn)。也就是說,他演講的主旨是最大的好處可能來自于比特(數(shù)字處理)、神經(jīng)元(AI)和量子比特(量子計算)的互補使用。
他指出,IBM在2016年通過云端開放了第一臺量子電腦的接入,目前已經(jīng)可以使用15臺量子電腦,其中包括最新的53量子位機型。
總結(jié)
以上是生活随笔為你收集整理的会议重点介绍芯片设计中的人工智能的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 堆叠式传感器架构带来先进的视觉功能
- 下一篇: MEMS传感器作为变革的驱动力