2021年11月30日–日本東京–邊緣AI領域的領先標桿企業(yè)LeapMind有限公司今日公布了其正在開發(fā)和授權的超低功耗AI推理加速器IP“Efficiera”v2版本(以下簡稱“v2”)。LeapMind于2021年9月發(fā)布了Efficiera v2的測試版,并收到了許多公司的測試及反饋,包括SoC供應商和終端用戶產(chǎn)品設計師。Efficiera v2預計2021年12月開始發(fā)售,如有意向獲取,請通過此郵箱垂詢:business leapmind.io。
LeapMind首席執(zhí)行官Soichi Matsuda表示:“去年,我們正式推出了v1的商用版本,許多公司對Efficiera進行了評測。截至2021年9月底,我們共與8家日本國內公司簽署了授權協(xié)議。‘向世界傳播采用機器學習的新設備’是我們根據(jù)企業(yè)理念所設定的座右銘,而我們正通過提供v1來穩(wěn)步推進這一理念的落地。在未來,我們將進一步通過技術創(chuàng)新和產(chǎn)品陣容擴展,繼續(xù)努力實現(xiàn)人工智能的普及。”
Efficiera v2根據(jù)v1的使用記錄和市場評測,擴大了應用范圍,在保持最小配置的電路規(guī)模基礎上,可覆蓋更廣泛的性能范圍,并應用于更多的實際產(chǎn)品。產(chǎn)品由此得到了進一步的完善。
Efficiera v2概念
LeapMind董事兼首席技術官Hiroyuki Tokunaga博士表示:“自去年發(fā)布v1以來,我們強化了設計/驗證方法和開發(fā)流程,旨在‘開發(fā)世界上最節(jié)能的DNN加速器’。我們一直在開發(fā)v2,以使產(chǎn)品能夠適用于專用集成電路(ASIC)和專用標準產(chǎn)品(ASSP)。我們還在開發(fā)一個深度學習方面的推理學習模型,以便將超小量化技術的優(yōu)勢最大化。LeapMind的最大優(yōu)勢就在于我們可以提供一種技術來實現(xiàn)雙管齊下。”
Efficiera v2的主要規(guī)格與特性
在保持最小電路規(guī)模的同時,覆蓋更廣泛的性能范圍,從而擴大應用范圍。
硬件特性
●通過多路復用MAC陣列+多核,性能可擴展至48倍
V2允許你將卷積管道中的MAC陣列數(shù)量增加到v1的3倍(可選擇x1、x4),并通過提供多達4個內核的選擇,進一步擴大性能的可擴展性。
●除卷積和量化外,還可實現(xiàn)硬件執(zhí)行跳過連接和像素嵌入
1.跳過連接是多層卷積神經(jīng)網(wǎng)絡(CNN)中常見的一種操作。(v1中由CPU執(zhí)行)
2.像素嵌入是一種對輸入數(shù)據(jù)進行量化的方法
●資源使用方面,配置與Efficiera 1相同
1.有些應用只因AI功能可在規(guī)模有限的FPGA器件上實現(xiàn)就能創(chuàng)造價值。
2.LeapMind分析了一個實用型深度學習模型的執(zhí)行時間,并仔細選擇了額外的硬件功能。
集成到SoC中
●AMBA AXI接口
●AMBA AXI interface
AMBA AXI繼續(xù)被用作與外部的接口,并且當接口被視為一個黑盒子時與以前一樣,易于從當前設計中遷移。
●單時鐘域
FPGA中的目標頻率
●FPGA的運行頻率與先前相同,雖然取決于具體設備,但預計約為150到250MHz。
1.256 GOP/s 125MHz(單核)
2.高達12 TOP/s 250MHz(雙核)
●以加密RTL的形式提供
B.通過改進設計/驗證方法并審查開發(fā)流程,我們確保質量不僅適用于FPGA,也適用于ASIC/ASSP。
C.開始提供一個模型開發(fā)環(huán)境(NDK),使用戶能夠為Efficiera開發(fā)深度學習模型。目前為止只有LeapMind實現(xiàn)了這項工作。
●為Efficiera創(chuàng)建超小型量化深度學習模型所需的代碼和信息包
●GPU深度學習模型的開發(fā)者可立即上手使用
●支持PyTorch和TensorFlow 2的深度學習框架
●學習環(huán)境為一個配備GPU的Linux服務器
●推理環(huán)境為一個配備Efficiera的設備
●來自LeapMind的技術支持
http:www.mangadaku.com/news/2021-12/2021122111012.html

