人工智能带来新一轮 产业变革

人工智能到底是啥? 《科技向未来》演讲实录



人工智能,未来已来

普惠AI



AIoT万物智联,普惠AI

AIoT将会是怎样的未来?



AI芯片承载智能未来

普惠AI

NeurIPS 2019 | AiRiA问鼎模型压缩与加速竞赛双料冠军

日前,神经信息处理系统大会(NeurIPS2019)于12月8日至14日在加拿大温哥华举行,中国科学院自动化研究所南京人工智能芯片创新研究院(AiRiA)团队在本次大会的神经网络压缩与加速竞赛(MicroNet Challenge)中获得双料冠军


以模型压缩和加速为代表的深度学习计算优化技术是近几年学术界和工业界最为关注的焦点之一。随着人工智能技术不断地落地到各个应用场景中,在终端上部署深度学习方案面临了新的挑战:模型越来越复杂、参量越来越多,但终端的算力、功耗和内存受限,如何才能得到适用于终端的性能高、速度快的模型?


由Google、Facebook、OpenAI等机构在NeurIPS2019上共同主办的MicroNet Challenge竞赛旨在通过优化神经网络架构和计算,达到模型精度、计算效率和硬件资源占用等方面的平衡,实现软硬件协同优化发展,启发新一代硬件架构设计和神经网络架构设计等

 

MicroNet Challenge竞赛对于人工智能软件、硬件的未来发展都有着非比寻常的意义,此次不仅集结了MIT、加州大学、KAIST、华盛顿大学、京都大学、浙大、北航等国内外著名前沿科研院校,同时还吸引了ARM、IBM、高通、Xilinx等国际一流芯片公司的参与。


MicroNet Challenge竞赛包括ImageNet图像分类、CIFAR-100图像分类和WikiText-103语言模型三个子任务。中国科学院自动化所研究所南京人工智能芯片创新研究院团队参加了竞争最激烈的ImageNet和CIFAR-100两个子赛道的比拼。历经五个多月的厮杀,团队一举包揽了图像类的全部两项冠军


团队结合极低比特量化技术和稀疏化技术,在ImageNet任务上相比主办方提供的基准模型取得了20.2倍的压缩率和12.5倍的加速比,在CIFAR-100任务上取得了732.6倍的压缩率和356.5倍的加速比,遥遥领先两个任务中的第二名队伍。


同时,受组织方的邀请,团队在大会以“A Comprehensive Study of Network Compression for ImageClassification”为主题详细介绍了相关的量化和稀疏化压缩和加速技术。

图:团队进行报告

针对比赛任务,团队在报告中给出解决办法:采用量化和稀疏化技术,将深度学习算法模型进行轻量化和计算提速,以大幅降低算法模型对算力、功耗以及内存的需求,让低端设备实现人工智能方案。量化及稀疏化技术也是人工智能深度学习的软、硬件协同加速方案突破口,通过将其与人工智能硬件架构设计紧密结合,可以进一步降低人工智能技术落地难度,让AI更为易得易用。

 

据悉,本次NeurIPS大会参会人数愈13000人,今年共收到投稿 6743 篇,再次打破了历年来的接收记录。而历来,NeurIPS竞赛单元都被誉为AI界的华山论剑,汇聚了全球AI顶尖力量决战技术之巅。