难道不是2022年芯片龙头股排名前十的市场需求才使得定制AI芯片成为面对15亿个AI终端的趋势吗
在2022年,全球的芯片龙头股排名前十的市场需求中,定制AI芯片成为了一项趋势。随着AI算法的成熟和芯片算力的提升,这一趋势得到了进一步推动。然而,面对15亿个AI终端的市场需求,如何满足多样化和定制化的需求仍然是行业面临的一大挑战。
为了解决这一问题,整个产业链需要协作,以满足市场的不同需求。据市场研究机构报告显示,由于计算机视觉/机器视觉等技术的广泛应用,到2022年全球将拥有超过15亿个具有这些能力的设备,其中包括智能手机、安防系统、消费电子产品、汽车图像传感器以及工业领域等。
在边缘AI落地方面,也存在着数据量大且运算复杂的问题。CEVA营销副总裁Moshe Sheier指出,在边缘AI中,要想破解处理器带宽难题,就必须提高硬件算力,同时也要让算法公司提出更多对芯片设计要求,使其能够更好地满足算法需求。
对于是否选择专用或通用的芯片而言,这也是一个重要的问题。虽然通用的芯片能够更好适应算法演进,但它们通常不如专用芯片提供高效率。而Moshe Sheier认为,加速器一定是一个发展趋势,并且视频DSP在AI中的作用非常关键,因为它可以优化多种神经网络模型,同时支持CV处理,以应对CPU可能遇到的瓶颈。
基于这类特征,不同公司不断推出新的处理架构,如CEVA推出的NeuPro-S系列,它们包括NPS1000、NPS2000和NPS4000,每个周期分别配置有1000、2000和4000个8位MAC预配置处理器。此外,该系列还能实现最高单核CNN性能,并可完全扩展至100 TOPS性能。在官方宣布的情况下,与第一代AI处理器相比,其性能平均提升50%,内存带宽降低40%,功耗减少30%。
这种显著性能提升主要来自于硬件优化,而非软件。这是因为神经网络与视频编解码不同,即便小图片卷积后权重数据量巨大,因此带宽成为了瓶颈。而CEVA采取了多重权重压缩技术来减少对带宽依赖。此外,该架构还支持多级内存系统,如L2缓存,可以减少使用外部SDRAM,从而降低传输成本。
因此,在设计时,最关注的问题就是乘法利用率,以及如何通过DSP设计经验进行理论设计,使得神经网络引擎理论利用率达到80%-90%左右,即使实际利用率略低于理论值,但NeuPro-S通过增强带宽能有效提高乘法利用率,最终实现边缘设备中的视频图像物品分割检测分类功能,对系统感知性能产生显著提升。此外,该架构还支持多重压缩选项和异构可扩展性,为满足各类场景提供了灵活性和效能优势。