Intel的新聞稿中其實並沒有多少關於Nervana處理器的實質性內容,通篇都是在講述Intel已經在不同領域展開研究,先有了17 qubit的Qutech量子處理器,現在又有了Nervana人工智慧處理器,它們都在不同領域發光發熱。
並且會繼續對前沿領域進行創新性的研究、投資新硬體、演算法,必要時會收購相關初創公司,保持技術領先優勢。
而超能網另外找到一篇介紹Nervana處理器的部落格,是由Nervana處理器主導研發者Naveen Rao所撰寫的,裡面提到了一些關於該神經網路處理器的關鍵技術,還是相當有趣的。
現在機器學習、深度學習已經成為全球廣泛使用的資料分析、研究方式,不過目前已有的處理器在運行相關程式總是顯得力不從心,因為X86處理器其通用性架構本來就不擅長於大資料處理,因此像NVIDIA開發的計算卡就派上用場了。而Intel為了彌補這方面缺陷,開始了Nervana處理器的開發,其特點如下:
新的記憶體體系
矩陣乘法以及矩陣轉置一直都是深度學習中的核心運算操作,這些計算不同於平常運算,很大程度上它們都是已知的操作,因此Intel Nervana處理器摒棄了原來的標準的緩存結構,而是利用軟體達到記憶體管理,這樣壓榨出處理器的最大性能(估計意思就是不需要原來複雜的緩存結構和控制單元電路,全部讓位給計算單元,達到更高的計算性能)。
新一代的AI模型
設計有高速片外互聯通道,可以讓Nervana處理器達到高速的雙向資料傳輸,多個處理器甚至可以組成一個更加龐大的神經網路系統,可以達到更大的計算量,説明客戶快速獲取有用資料。
專為人工智慧設計的Flexpoint運算
神經網路計算在單個晶片上很容易受到功耗以及記憶體頻寬限制,為了達到更高的輸送量,Intel發明了一種新的運算Flexpoint,可以達到標量的點乘和加法,而且這種計算單元可以節省下不少的電路電晶體,因此可以提升處理器的密度,並且減少功耗。
Intel表示,Nervana處理器並非只有一款,多代處理器正在打造當中,在未來這些產品有助於在2020年達到深度計算數百倍的性能提升。
而第一個合作方就是Facebook,雙方將會深入合作應用,但未具體公佈相關細節。
資料來源
沒有留言:
張貼留言