国际品牌资讯
您的位置:首页 >珠宝 >

英特尔提出硬件解决方案以应对人工智能的挑战

时间:2020-06-16 16:10:00 | 来源:

在本周举行的2020年VLSI技术和电路研讨会上,英特尔展示了关于计算转型的研究机构,该研究由越来越多地分布在边缘,核心和端点上的数据驱动。英特尔将开展几项研究,探索在边缘以及跨网络和云系统的更高级别智能和节能性能的技术。

数字二进制AI加速器

在某些应用中可以接受低精度输出的功耗和资源受限的边缘设备中,模拟二进制神经网络(BNN)可以替代高精度,计算量更大和内存密集型AI算法。但是,模拟BNN的预测准确性较低,因为它们对可变性和噪声的容忍度较低。

英特尔撰写的一篇论文描述了数字BNN芯片中的一种潜在解决方案,该芯片是一种实现10亿个激活功能和权重的10纳米芯片。(激活函数定义节点的输出-机器学习算法的组成部分-给定一个输入或一组输入。权重是在算法的节点层内转换输入的变量。)研究人员声称,他们的全数字方法可实现该芯片可达到617 TOPS / W,其中TOP(每秒万亿次操作)是对最大可实现吞吐量的度量。与以前的数字实现相比,此方法可实现声称的计算密度高2.8至135倍,能源效率高2.7倍。

该论文的合著者断言,该芯片比模拟方法具有更多优势,因为它不会增加晶体管数量或引入电容器,而这会降低计算面积效率。相反,它包装了161KB的内存和内存执行单元(MEU),支持诸如输出激活和比较操作之类的功能。中央控制器协调来自四个存储库的数据流,四个存储库存储输入,输出和权重。它连接到八个MEU阵列(每个阵列有16个MEU)以完成总体设计。

射线铸造促进剂

在同时定位和制图或SLAM中,加速器芯片通常用于里程计(使用来自运动传感器的数据来估计随时间的位置变化)和路径规划。但是这些芯片通常要与“密集” SLAM任务作斗争,例如精确的表面估计和3D场景重建,这些任务需要处理大量的实时可视数据。

射线投射是一种在低功耗边缘处理片上系统上执行密集SLAM的流行技术,其中,对当前帧的每个像素投射射线,并在每个步骤中轮询3D周围地图,直到相交的第一个点在任何固体物体上。对于射线的每个采样点,加速射线投射至少需要八个周围的体素(代表3D空间中网格上的值的对象)。但是幸运的是,空间接近的光线会拦截重叠的体素区域,从而为优化芯片的内存访问和数据移动创造了机会。

利用这一优势,英特尔的一篇论文提出了合著者所说的“射线投射加速器”,这是一种10纳米互补金属氧化物半导体(CMOS),可以在空间附近投射多条射线以利用体素的局部性。研究人员报告说,它演示了320 x 240像素的射线投射,平均延迟为每帧23.2毫秒,同时实现了每瓦115.3吉比特射线级(10亿条射线)的最大能量效率。

事件驱动的视觉数据处理器

基于AI的实时视觉分析不仅需要从多个视频流中快速检测对象,而且还需要很高的计算周期和硬件内存带宽。更为严峻的挑战是,通常会对相机中捕获数据的帧进行下采样以最大程度地减少该负载,这会降低图像精度。

英特尔研究人员提出了一种事件驱动的视觉数据处理单元(EPU)来解决此问题。结合新颖的算法,它可以指示AI加速器芯片仅使用基于运动的“感兴趣区域”来处理视觉输入。EPU管线支持每秒70帧的全高清视频以及事件检测和事件群集等工作负载,将基于AI的视觉硬件的端到端能源效率提高了5倍,而吞吐量却提高了4.3倍。

在每个EPU时钟周期中,在EPU上运行的一种称为Eventifier的算法会比较当前帧和前一帧的16个像素的批处理强度,并且一个单独的模块会聚类在空间和时间上相关的事件。Convolver算法会跳过不包含运动的帧区域,分析室内,室外,白天和夜间的镜头。

“分布在分布式边缘,网络和云基础架构上的庞大数据量要求在产生数据的位置附近进行节能,强大的处理,但通常受到带宽,内存和电源的限制,”英特尔研究员和总监电路技术研究员Vivek K. De在一份声明中说。“英特尔在VLSI研讨会上展示的研究重点介绍了几种提高效率的新颖方法,这些方法显示了从机器人技术和增强现实技术到机器视觉和视频分析等一系列应用的前景。这项研究的重点是解决数据移动和计算的障碍,这些障碍代表了未来最大的数据挑战。”

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如有侵权行为,请第一时间联系我们修改或删除,多谢。