乐鱼体育app官网下载

乐鱼体育app下载地址_乐鱼体育app官网下载

联系人:林总

手机:13397081699

地址:青云谱区青云谱农场区华东国际工业博览城12栋C309号、C297号


乐鱼体育app下载:韩松、朱俊彦等人提出GAN压缩法:算力消耗不到19现已开源
发布时间:2024-04-10 11:23:54来源:乐鱼体育app下载地址 作者:乐鱼体育app官网下载
产品介绍

  GAN 也可以大幅压缩,MIT 韩松团队的最新研究让众多研究者们为之一振。

  但近日,来自麻省理工学院(MIT)、Adobe、上海交通大学的研究者提出了一种用于压缩条件 GAN 的通用方法。这一新技术在保持视觉保线pix,CycleGAN 和 GauGAN 等普遍的使用的条件 GAN 模型的计算量减少到 1/9~1/21。该方法适用于多种生成器架构、学习目标,配对或非配对设置。

  GAN 压缩后的具体性能如何?在研究者们展示的 Demo 中,使用 CycleGAN 为视频中的马添加斑马条纹所需的算力不到 1/16,帧数提高了三倍,而且效果还有所提升:

  值得一提的是,该研究所使用的硬件平台是英伟达的边缘 AI 计算芯片 Jetson Xavier GPU。根据官方公布的数据,Jetson Xavier 的 INT8 算力为 22+10TOPS,骁龙 865 则是 15TOPS。压缩后的 GAN 现在看来已能跑在机器人、无人机等小型设备上了,未来塞进手机指日可待。

  生产对抗网络(GANS)擅长合成十分逼真的图像。GAN 的一种变体——条件式生成对抗网络(conditional generative adversarial network,cGAN)在很多计算机视觉和图像学应用中都可以在一定程度上完成可控制的图像合成。但这些应用大都需要模型与人互动,因此就需要低延迟的设备上才可以获得更好的用户体验。

  然而,近来推出的一些 cGAN 在计算强度上比当前识别卷积神经网络(CNN)大 1 至 2 个量级。举例而言,GanGAN 每张图像消耗 281G Macs,而 MobileNet-v3 仅需 0.44G Macs,这就导致前者很难用于交互式部署。

  而且,就目前来看,边缘设备又多数受到内容以及电池之类硬件层面上的限制,也阻碍了 GAN 在边缘设备上的部署。

  因此,基于 GAN 和 cGAN 在图像合成领域存在的这样一些问题,韩松团队提出了 GAN 压缩,这是一种通用压缩方法,用于减少 GAN 的推理时间以及计算成本。同时,压缩生成模型面临两个基本困难:GAN 训练不稳定,尤其是在未配对的情况下;生成器与 CNN 不同,因此很难使用现有的 CNN 设计。未解决此问题,团队将知识从原始的教师生成器中间表示层传递到其相应的学生生成器层中。

  为了降低训练成本,团队还通过训练包含所有可能通道数的「once- for-all network」,将模型训练与架构搜索分离。这个「once-for-all network」能够最终靠权重共享产生许多子网络,无需训练就可以评估每个子网络的性能。该模型可应用至各种条件下的 GAN 模型,不管其属于哪种模型架构、学习算法或监督设置(配对或未配对)。

  通过大量的实验,团队已证明了此办法能够将 pix2pix,CycleGAN 以及 GauGAN 三种普遍的使用的 GAN 模型计算量减少至 1/9 到 1/21,同时还不会损失生成图像的保真度。

  我们都知道,对用于交互式应用的条件式生成模型进行压缩具有挑战性,这主要是由以下两方面问题导致的。其一,从本质上讲,GAN 的动态训练非常不稳定;其二,识别和生成模型之间有的巨大架构差异导致很难直接用现有的 CNN 压缩算法。

  基于这些原因,研究者提出了专对于高效生成模型的训练方案,并利用神经架构搜索(NAS)进一步增加压缩比。GAN 压缩框架整体架构如下图 3 所示,其中他们利用 ResNet 生成器作为示例。需要强调的是,同一框架能应用于不同的生成器架构和学习目标。

  广泛的训练目标使得构建通用压缩框架十分艰难。未解决这一问题,研究者在模型压缩设置中统一了配对和非配对学习,不管教师模型最初是如何训练的。给定原始教师生成器 G′,研究者将非配对训练设置转换为配对设置。对于非配对设置,可以将原始生成器输出视为真值并使用配对训练目标训练压缩后的生成器 G。

  尽管此研究致力于压缩生成器,但判别器 D 中储存着 GAN 的有用信息。因此,研究者利用了同一个判别器架构,使用来自教师判别器的预训练权重,与压缩生成器一起微调判别器。

  在实验中,研究者观察到,预训练判别器可以指导学生生成器的训练。使用一个随机初始化的判别器通常会导致训练不稳定及图像质量下降。这个 GAN 的目标可以写成以下形式:

  在上式中,研究者使用来自教师判别器 D′的权重来初始化学生判别器 D。他们使用一个标准的极小化极大优化器训练 G 和 D。

  知识蒸馏是 CNN 模型压缩用到的一种普遍方法。通过匹配输出层 logit 的分布,可以将来自教师模型的暗知识(dark knowledge)迁移到学生模型中,提高学生模型的性能。然而,条件 GAN 通常会输出一个确定的图像,而不是概率分布。

  为了解决以上问题,研究者匹配了教师生成器的中间表示。中间层包含的通道越多,它们所能提供的信息越丰富,学生模型所获取的输出之外的信息也越多。蒸馏目标如下:

  其中,超参数λ_recon 和 λ_distill 控制每个项的重要性。

  选择一个设计良好的学生架构对最终知识蒸馏的效果是至关重要的,研究者发现,光是缩减教师模型的通道数量并不能使学生模型更紧凑:当计算缩减量超过 4 倍时,性能就会显著下降。

  现有的生成器一般会用传统卷积来匹配 CNN 分类和分段设计。近来一些高效的 CNN 设计广泛采用卷积的分解形式(depthwise + pointwise),在性能和计算二者之间的均衡性更好。研究者发现,分解的卷积也可以用在 cGAN 的生成器设计上。

  现有的生成器在所有层上使用手动设计(并且几乎统一)的通道数,如此一来就会产生冗余,远非最优方法。为了逐步提升压缩效率,研究者使用通道剪枝(channel pruning)来自动选择生成器中的通道宽度,由此减少冗余,二次减少计算量。这一方法支持有关通道数的细粒度选择,针对每个卷积层,可以从 8 的倍数中选择卷积层,从而平衡 MAC 和硬件并行性。

  研究者依照最近 one-shot 的 NAS 方法的研究,将模型训练与架构搜索脱钩。首先,训练一个支持不同通道数量的「once-for-all」网络,其中的每个子网络都经过了同等训练。图 3 阐释了整个框架。研究者假设原始的教师生成器有

  在每一个训练步骤中,使用学习目标对具备某一通道数的子网络进行随机取样,计算输出和梯度,更新提取的权重(公式 4)。由于最先被抽取的几个通道更新频率更高,它们在所有权重之中扮演着更为关键的角色。

  这个「once-for-all」网络训练好之后,研究者直接在验证集上评估了每个子网络的性能,找出了最佳的子网络。「once-for-all」网络已经经过了权值共享的彻底训练,无需再进行微调(fine-tuning)。这个结果近似于从头开始训练模型的性能。

  通过这样的形式,只需要训练一次,且无需再进一步训练,就能评估所有评估所有通道的配置,并依据搜索出来的结果找到其中最佳。当然,也可以对选中的架构进行微调来逐步提升其性能。

  该方法除了可以在一定程度上完成较大的压缩率以外,同时其也能提高不同模型大小的性能。下图 6 显示了在 pix2pix 模型中,在不同数据集上的性能与计算的权衡。

  下图 4 为使用该方法得到的效果展示。图中分别给出了输入数据、标准输出、原始模型输出以及压缩后模型的输出。从图中能够准确的看出,即使在较大的压缩率下,研究者所提方法仍然能保持输出图像的视觉可信度。

  对于真实场景交互应用而言,在硬件设备上推理加速的重要性要远大于减少计算消耗。如下表 2 所示,为验证所提方法在实际应用中的有效性,研究者在具有不一样运算性能的设备上面测试了压缩模型的推理速度。

  在本文中,韩松团队提出的通用压缩框架能够明显降低条件式 GAN 中生成器的计算花销和模型大小,并且通过知识蒸馏和自然架构搜索来提升训练稳定性以及模型效率。实验表明,文中提出的 GAN 压缩方法能够在保持视觉质量的同时压缩数种条件式 GAN 模型。他们表示,未来的研究工作将侧重于降低模型延迟以及构建生成视频模型的高效框架。

  首期「AI 开发者成长计划」由机器之心联合微众银行开设《联邦学习 FATE 入门与应用实战》公开课,并特邀合作伙伴 VMware 带来为期 4 周共 6 期课程,设置主题讲解、项目实操、在线答疑等环节,帮助 AI 开发者从零入门联邦学习。公开课第四课将于 3 月 24 日开讲,欢迎各位报名参与。

  原标题:《韩松、朱俊彦等人提出GAN压缩法:算力消耗不到1/9,现已开源》

  本文为澎湃号作者或机构在澎湃新闻上传并发布,仅代表该作者或机构观点,不代表澎湃新闻的观点或立场,澎湃新闻仅提供信息发布平台。申请澎湃号请用电脑访问。

乐鱼体育app下载| 乐鱼体育app下载地址| 新闻中心| 产品中心| 乐鱼体育app官网下载| 工程案例| 网站地图|