本文援用地点:●? ?Ceva-NeuPro-Nano?取得年度最佳IP/处置器产物奖,连续公司智能边沿IP的当先位置●? ?Ceva-NeuPro-Nano NPU在小空间内供给超低功耗跟高机能的优化均衡,可在花费、产业跟通用AIoT产物中高效履行嵌入式AI任务负载。辅助智能边沿装备更牢靠、更高效地衔接、感知跟揣摸数据的寰球当先半导体产物跟软件IP受权允许厂商Ceva公司克日发布Ceva-NeuPro-Nano NPU在近期于中国台北举行的有名亚洲金选奖(EE Awards Asia)中荣获年度最佳IP/处置器产物奖。获奖的 Ceva-NeuPro-Nano NPU 可为半导体企业跟OEM厂商供给所需的功率、机能跟本钱效力,以便将嵌入式人工智能模子集成到其用于花费、产业跟通用 AIoT 产物的SoC 中。嵌入式人工智能模子是直接集成到硬件装备中,并在装备上运转的人工智能算法跟体系,无需依附云端处置。Ceva-NeuPro-Nano NPU处理了嵌入式人工智能方面的机能困难,无望实现无处不在而且经济适用的人工智能,普遍利用于花费跟产业物联网利用中的语音、视觉、猜测性保护跟安康传感等种种用例。Ceva首席策略官Iri Trashanski表现:“博得亚洲金选奖之年度最佳IP/处置器奖,证实了NeuPro-Nano NPU存在翻新性跟出色性,它为功耗受限的装备带来了经济无效的人工智能处置技巧。衔接、感知跟揣摸是塑造更智能、更高效之将来的三年夜要害支柱,咱们很骄傲可能凭仗无可比拟的 IP 产物组合在这三种利用案例中奋勇当先。”Ceva-NeuPro-Nano 嵌入式人工智能 NPU 架构完整可编程,可高效履行神经收集、特点提取、把持代码跟 DSP 代码,并支撑开始进的呆板进修数据范例跟运算符,包含原生变更器盘算、稀少性减速跟疾速量化。与现有的采取基于 AI 减速器架构的 CPU 或 DSP 组合的嵌入式 AI 任务负载处置器处理计划比拟,这种经由优化的自力更生单核架构使 Ceva-NeuPro-Nano NPU 可能供给更高的能效、更小的硅片占用空间以及优良机能。别的,Ceva-NetSqueeze AI 紧缩技巧可直接处置紧缩模子权重,而无需旁边的解紧缩阶段,使得Ceva-NeuPro-Nano NPU的内存占用增加了80%,处理了现在妨碍AIoT处置器普遍利用的要害瓶颈成绩。这款NPU 随附完全的人工智能 SDK Ceva-NeuPro Studio,这是同一的人工智能客栈,是实用于全部Ceva-NeuPro NPU 系列的通用东西,支撑开放式人工智能框架,包含微把持器 LiteRT(前身为微把持器 TensorFlow Lite)跟 microTVM。亚洲金选奖旨在表扬亚洲电子行业中备受推重的最佳产物、企业跟团体。来自寰球的专业技巧人士构成评审团,评比收支围榜单后,再由中国台湾跟亚洲的《EE Times》跟《EDN》专业媒体读者群投票选出优越者。供货Ceva克日起开端供给Ceva-NeuPro-Nano NPU受权允许。 申明:新浪网独家稿件,未经受权制止转载。 -->[db:摘要]