在2020年市场需求迫使我们思考什么是芯片它是如何被用于面对15亿个AI终端的挑战中定制AI芯片成为
随着AI算法的逐步成熟以及芯片算力的提升,历经几年的热潮之后,AI技术只有落地应用才能获得进一步的发展。不过,算法需求与芯片算力不匹配的需求成为了AI落地的一大障碍,AI软硬一体化成为关键。但在软硬一体化提高效率的同时,如何满足多样化的需求也非常关键,定制化成为了趋势。
这轮AI热潮,不仅让越来越多的人认识和了解了AI技术,AI也正在成为每台智能设备日常工作的一部分。事实证明,深度神经网络(DNN)非常有用,但是AI的进一步发展和落地仍有很多挑战。比如,我们需要更好地解决现有解决方案跟上发展趋势的问题,以及扩展解决方案的问题,以及以成熟工具链缩短TTM(Time to Market)和降低成本的问题?
面对这些问题,我们需要整个产业链协作共同满足市场需求。根据市场研究机构报告到2022年全球具有计算机视觉/机器视觉相继规模将超过15亿个,这包括智能手机、安防、消费电子、汽车图像传感器、工业等。这就意味着定制化加速器可以更好地满足不同市场要求,但与此同时,在边缘端进行落地同样存在挑战。
CEVA营销副总裁Moshe Sheier认为,在边缘环境中,使数据量巨大且运算复杂的问题很难得到有效处理,因此芯片带宽至关重要。他提出了一个问题:如何破解带宽难题?
他指出,当做落地项目时,由于硬件不足可能会牺牲特性,所以希望软件公司提出更多需求,以便设计能够更好支持软件。此外,他强调了专用或通用的讨论,并表示专用加速器对于提升性能至关重要,但通用的则能适应演进。此外,他还提到了视频DSP在处理非确定性任务时扮演着重要角色。
基于流行神经网络特征理解,CEVA推出了第二代面向边缘设备的NeuPro-S系列,它们包含NPS1000、NPS2000和NPS4000,每个周期分别配置1000, 2000, 和4000个8位MAC预配置处理器。NPS4000单核CNN性能最高可达12.5 TOPS,并且可完全扩展最高可达到100 TOPS。
这次性能提升主要来自硬件优化,因为NeuPro-S增加了离线权重压缩及硬件权重解压缩。在神经网络卷积后权重数据量巨大而带宽瓶颈之下,加强权重压缩减少对带宽依赖是一个明智选择。而多级内存系统支持,如L2缓存减少SDRAM使用降低传输成本也是优点之一。
因此,对于未来,可持续利用率最大限度增强乘法操作能力,同时保持良好的电源管理,将是核心目标。此外,还要考虑灵活性的实现,比如允许用户通过不同的组合来满足市场要求,而不是只依赖一种架构。这将极大程度上简化开发者部署过程并降低成本,为客户提供高度定制服务。