真正的AI边缘计算出现在高度集成的处理器和IP中

真正的AI边缘计算出现在高度集成的处理器和IP中,第1张

真正的AI边缘计算出现在高度集成的处理器和IP中

  现在几乎所有高端智能手机的图像处理子系统都集成了神经网络。语音记录和语音处理专家会争辩说,我们现在所说的人工智能已经在边缘运行了多年。

  然而,在大多数情况下,这些应用程序利用了并非为现代 AI 工作负载设计的 SoC 和 DSP。随着人工智能技术和部署的进步,一些新的工程挑战出现了:

  需要始终在线的超低功耗系统,该系统可以长时间依靠电池供电并为推理提供快速响应时间

  对保护机器学习图免遭篡改或盗窃的集成安全性要求

  对能够适应 AI 模型和算法快速变化的灵活解决方案的需求

  这些趋势提高了 IP 和处理器供应商的风险,这些供应商希望为嵌入式 AI 市场提供服务,预计到 2024 年,该市场的价值将达到 46 亿美元。这些公司现在正在提供高度集成的、专门构建的计算解决方案,以抢占该业务的份额。

  拔掉电源

  随着人工智能被部署在像助听器一样受限的设备中,功耗已成为推理平台的首要考虑因素。Eta Compute 已将获得专利的动态电压频率缩放 (DVFS) 技术整合到其多核 SoC 中,以服务于这些用例。

  为了节省电力,许多传统处理器包括睡眠功能,当负载存在时唤醒内核。然而,这些设备中的大多数都以峰值速率运行内核,这当然需要额外的功率。

  借助 DVFS,Eta Compute 设备会根据当前工作负载连续切换电压供应,但仅切换到在足够长的时间内执行任务所需的最低功率。该公司的 ECM3531 基于 Arm Cortex-M3 和 NXP CoolFlux DSP,因此能够以 1 µW 的功耗提供 200 kSps 的 12 位分辨率。

  数据集锁定

  已发现在推理 *** 作期间引用的片上训练数据集是可利用的。对于大多数可能被盗的 AI 公司来说,这些数据集代表了极具价值的知识产权。但是更改图像识别数据集中的像素可能会使推理引擎错误地识别对象或根本无法识别它们。

  一个广为人知的例子发生在研究人员欺骗谷歌人工智能相信步q是一架直升机时,但想象一下自动驾驶汽车人工智能是否认为行人是一个垃圾袋?更可怕的是,试图调试软件的人类工程师通常无法检测到像素变化。

  Synopsys 的 DesignWare EV7x 处理器等 IP 模块包括视觉引擎、DNN 加速和紧密耦合的内存,可提供高达 35 TOPS 的节能性能。然而,EV7x 处理器的一个低调特性是可选的 AES-XTS 加密引擎,它有助于保护从片上存储器传递到视觉引擎或 DNN 加速的数据。

  未来模型的灵活性

  从 DNNs 到 RNNs 再到 LSTMs,在过去的几年里出现了几十种神经网络类型。虽然这些象征着人工智能软件和算法领域令人兴奋的创新,但它们也引发了针对特定类型工作负载进行优化的计算设备的重大问题。

  ASIC 从设计到流片可能需要六个月到两年的时间,这可能会加速高度专业化解决方案的过时。正是由于这个原因,FPGA 在人工智能工程领域获得了巨大的吸引力。

  Xilinx 器件(如流行的 Zynq 和 MPSoC 平台)可进行硬件和软件重新编程。这意味着逻辑块可以针对当今领先的神经网络进行优化,然后在算法发展后的数月或数年内重新配置。

  但是一个称为动态功能交换 (DFX) 的功能允许系统下载部分位文件,这些文件可以动态修改逻辑块。这可能在设备部署和运行时发生,本质上是添加、删除或更改单个 Xilinx 设备的功能。

  边缘的生产就绪型 AI

  现在对 AI 边缘计算的期望与我们几年前对物联网的预测相似。就像数以万亿计的“事物”将被连接起来一样,我们假设其中绝大多数将是(人工)智能的。

  虽然上一代解决方案奠定了基础,但下一代解决方案需要一套新功能来确保商业成功。处理器和 IP 供应商正在通过将越来越多的功能集成到 AI 边缘计算设备中来做出回应。

  审核编辑:郭婷

欢迎分享,转载请注明来源:内存溢出

原文地址: http://www.outofmemory.cn/dianzi/2418268.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-01
下一篇 2022-08-01

发表评论

登录后才能评论

评论列表(0条)

保存