谷歌、蘋果、IBM和英特爾已經(jīng)建立了用于加速神經(jīng)網(wǎng)絡的神經(jīng)處理器,其中大部分被部署為運行人工智能模型的協(xié)同處理器。但隨著智能應用需求的增長,系統(tǒng)也會做出更多的調(diào)整。
人工智能
在計算機視覺的常見應用中,移動多幀高分辨率視頻強調(diào)了I/O子系統(tǒng)。目前,架構(gòu)師和計算機科學家仍在學習如何優(yōu)化數(shù)據(jù)結(jié)構(gòu)和數(shù)據(jù)表示。例如,如Medusa所指出的,多端口DNN加速器與寬DRAM控制器接口之間的互連。每個端口都有自己的DRAM訪問權限,因此內(nèi)存互連對于將寬DRAM控制器接口互連到大量窄讀寫端口是必要的,同時保持最大的帶寬效率。
當DRAM帶寬在DRAM端口上均勻分配時,DNN最有效。由于DRAM可以占總能耗的90%,最小化內(nèi)存邏輯可以節(jié)省計算機成本。內(nèi)存訪問不僅是傳統(tǒng)工作負載和人工智能工作負載之間的唯一區(qū)別,而且隨著人工智能應用程序的復雜性,x86和ARM將變得越來越不相關。