谷歌、苹果、IBM和英特尔已经建立了用于加速神经网络的神经处理器,其中大部分被部署为运行人工智能模型的协同处理器。但随着智能应用需求的增长,系统也会做出更多的调整。
人工智能
在计算机视觉的常见应用中,移动多帧高分辨率视频强调了I/O子系统。目前,架构师和计算机科学家仍在学习如何优化数据结构和数据表示。例如,如Medusa所指出的,多端口DNN加速器与宽DRAM控制器接口之间的互连。每个端口都有自己的DRAM访问权限,因此内存互连对于将宽DRAM控制器接口互连到大量窄读写端口是必要的,同时保持最大的带宽效率。
当DRAM带宽在DRAM端口上均匀分配时,DNN最有效。由于DRAM可以占总能耗的90%,最小化内存逻辑可以节省计算机成本。内存访问不仅是传统工作负载和人工智能工作负载之间的唯一区别,而且随着人工智能应用程序的复杂性,x86和ARM将变得越来越不相关。