新加坡科技研究局高性能研究所周天异研究员学术报告通知

来源:计算机与人工智能学院 发布日期: Thu Nov 03 00:00:00 CST 2022 浏览次数:1720

报告题目: 模型压缩真的能为我们节约能耗吗?
报告人:新加坡科技研究局高性能研究所周天异研究员
报告时间:2022年11月8日(周二)晚上 20:00
报告地点: 腾讯会议:616-907-186
主持人:李天瑞教授、罗皓楠助理教授


报告摘要:
       边缘设备需要低能耗的小模型。为了在边缘设备上有效地部署卷积神经网络 (CNN) 模型,能耗敏感的模型压缩变得极为重要。然而现有的工作并没有很好地研究这个问题,因为缺乏考虑硬件架构中数据流类型的多样性。在本次演讲中,我将介绍我们最近名为 EDCompress 的工作,这是一种适用于各种数据流的能耗敏感的模型压缩方法。它可以有效降低各种边缘设备的能耗,具有不同的数据流类型。考虑到模型压缩过程的本质,我们将优化过程重铸为多步优化问题,并通过强化学习算法解决。实验表明,EDCompress 可以在 VGG-16、MobileNet、LeNet-5 网络中分别提高 20、17、37倍的能效。 EDCompress 还可以针对不同神经网络在能耗方面找到最佳数据流类型,这可以指导 CNN 模型在硬件系统上的部署。
 

报告人简介:
       周天异博士,毕业于新加坡南洋理工大学, 现为新加坡科技研究局高性能研究所担任高级科学家(Senior Scientist)职位, 并且担任30多人的人工智能团队带头人(Group Manager), 同时担任新加坡国立大学兼职教授。周天异博士主持多项新加坡重点研发项目,并且已在机器学习, 人工智能,信息安全等领域核心期刊(JCR一区)和国际会议(CCF A类)上发表论文100余篇; 此外是Springer Nature Computer Science, TOMM, TETCI , IEEE MultiMedia, IET Image Processing, Neurocomputing 等国际重要SCI 期刊的副主编/特邀编委;是多个国际顶级/重要学术会议(例如CCF A类会议IJCAI)等的专题报告组织联合主席和国际旗舰会议MOBIMEDIA 2020 技术程序委员会联合主席;获得IJCAI,ECCV, ICDCS等多个国际顶级/重要学术会议及其专题报告会最佳论文奖;担任NIPS, ICML, CVPR, ICLR, ACL, AAAI, IJCAI等国际顶级会议审稿人/领域主席, 并且获得NIPS’17年最佳审稿人称号。