本篇文章2639字,读完约7分钟

关注尖端科学技术的量子比特

十三发自凹非寺

量子报道|公众号qbitai

可以说在图像解决行业,近年来的新模式层出不穷。

但是,在很多下游任务中,目标检测、语义分割等依然使用resnet及其变化作为主干网。

最近,亚马逊李沐团队提出了被称为“resnet最强改良版”的互联网resnet。

从名字可以看出,引入了模块化的分布式观察力模块,观察力横跨特征图( feature-map )组。

那么,resnest到底有多强呢?

resnest-50在224×224的imagenet中,实现了81.13%的top-1精度,比迄今为止最高的resnet变化精度提高了1%以上。

通过用resnest-50轻松替换resnet-50主干,可以将ms-coco上fasterrcnnnn的map从39.25%提高到42.33%。 ade20k上deeplabv3的miou从42.1%上升到45.1%。

这些改进对目标检测、实例分割、语义分割等下游任务有很大帮助。

李沐也送了微信的力矩,呼吁伙伴们“一键升级”。

更惊人的是,这项事业是开源的!

最强的resnet变体:多个任务获得“大热”

现在,让我们具体看看resnest在具体任务中的表现。

图像分类

第一个实验研究了resnest在imagenet数据集上的图像分类性能。

通过比较resnest、其他50层和101层的构成、类似的多种有噪声的resnet变化,top-1的精度最高,如下表所示。

并与不同大小的cnn模型进行了比较。

我们使用了256×256的resnest-200和320×320的resnest-269。 对于输入大小大于256的模型,请使用“两到三次上采样策略”( bicubic upsampling strategy )。

由下表可知,resnest与基于nas检测的模型相比,正确性和延迟的权衡更高。

目标检测。

其次是目标检测中的性能。

所有模型都是通过coco-训练集中训练的118k图像,在coco-验证集中通过5k图像来判断。

使用fpn、同步批处理解决归一化( synchronized batch normalization )、图像比例增强,训练所有模型。

为了便于比较,我们用resnest替换了vanilla resnet主干,并采用了默认设置的超级参数。

与采用标准resnet的基线相比,resnest的主干在faster-rcnn和cascadercnn中都可以将平均精度提高3%左右。

这表明resnest的主干网具有良好的泛化能力,同时可以容易地转移到下游任务。

值得注意的是,resnest50在faster-rcnn和cascade-rcnn的检测模型中都优于resnet101,采用的参数明显较少。

实例分割。

在实例分割任务中,以resnest-50和resnest-101作为主干,判定mask-rcnn和cascade-mask-rcnn模型。

实验结果如下表所示,在mask-rcnnn中,resnest50的box/mask性能增益分别为2.85%/2.09%,与此相对,在resnest101中显示出4.03%/3.14%的更好的提高。

cascade-mask-rcnn时,切换到resnest50或resnest101产生的增益分别为3.13%/2.36%或3.51%/3.04%。

这表明,如果模型由越来越多的剥离模块组成,它将更有效。

语义分割

在语义分割下游任务的迁移学习中,以deeplabv3的gluoncv实现为基准方法。

从下表可以看出,resnest使deeplabv3模型实现的miou提高了约1%,维持了类似的整体模型多、噪音多。

观察到采用resnest-50的deeplabv3模型的性能优于采用更大的resnet-101的deeplabv3。

resnest :观察力分割互联网

性能如此优异是如何改进一体resnet的呢?

接下来,揭开resnest神秘的面纱吧。

如上所述,resnest是基于resnet的,引入分割身份块,可以跨不同的feature-map组实现feature-map观察力。

剥离张力块是一个计算单元,由feature-map组和分割观察力操作组成。 下图显示了分割身份块和辅助组的分割身份块。以及。cardinal group。

从上面两张图可以看出,都有split的影子。 例如k(k )和r(r )都是超参数,即合计g = k*r组。

除此之外,还可以面对面地观看se-net和sk-net。

其中,se-net引入了信道观察力( channel-attention )机制的sk-net通过两个网络分支引入了特征图观察力( feature-map attention )。

resnest和se-net、sk-net的对应图如下所示。

研究者介绍

李沐,亚马逊首席科学家,加利福尼亚大学伯克利分校客座助理教授,美国卡内基梅隆大学计算机系博士。

集中精力研究分布式系统和机器学习算法。 他是深度学习框架mxnet的作者之一。

曾任机器学习创业企业marianas labs的cto和百度深度学习研究院的主任研究开发设计师。

李慕有丰富的研究成果,在国内外主要期刊上发表过多篇学术论文,其中《di facto-distributedfactorizationmachines》是acm国际互联网搜索和数据挖掘( wsdm )

传输门

论文地址:

hangzhang/files/resnest.pdf

github项目地址:

github/hang 1989/RES nest

作者是网易信息网易号“各有态度”的合同作者

——完

如何关注、学习和使用人工智能?

各工作日,量子ai内参精选世界科学技术和研究的最新动态,总结新技术、新产品和新应用,整理当天最热领域的趋势和政策,检索有价值的论文、教程、研究等。

而且,ai内参群为大家提供了交流和共享的平台,更好地满足了大家获取ai信息、学习ai技术的诉求。 可以用扫描仪订阅:

了解ai快速发展的现状,发掘领域快速发展的机会

ai社区|与优秀的人交流

量子比特qbitai ·头条号签约人

' '跟踪ai技术和产品的新动态

你喜欢“看”吧!

原标题:“李沐团队提出了最强的resnet改进版,多个任务达到了sota |开源。”

阅读原文。

来源:国土报中文版

标题:热门:李沐团队提出最强ResNet改进版,多项任务达到SOTA

地址:http://www.g3gw.com/new/27435.html