DET:完全基于Transformer的目标检测器,ICLR匿名论文视觉、检测统一

机器之心报道

编辑:陈萍

一种新的集成视觉和检测Transformer的目标检测器ViDT。

Transformer在NLP任务中取得不错的发展,许多研究将其引入到计算机视觉任务中。毫不夸张的说,Transformer正在改变计算机视觉的格局,尤其是在识别任务方面。例如Detectiontransformer是第一个用于目标检测的、端到端的学习系统,而visiontransformer是第一个完全基于transformer的图像分类架构。在本文中,一篇被ICLR2022接收的匿名论文集成了视觉和检测Transformer(VisionandDetectionTransformer,ViDT)来构建有效且高效的目标检测器。

ViDT引入了一个重新配置的注意力模块,将SwinTransformer扩展为一个独立的目标检测器,之后是一个计算高效的Transformer解码器,该解码器利用多尺度特征和辅助技术,在不增加计算负载的情况下提高检测性能。

华尔街分析师:比特币可以完全取代5万亿美元的外汇市场作为基础层货币:3月15日消息,华尔街金融分析师、比特币支持者Max Keizer在最近一份报告中表示,比特币有潜力成为新的基础货币并取代整个5万亿美元的外汇(FX)市场。Keizer称,比特币在全球支付中具有优势,因为它的去中心化、通货紧缩和安全的性质,这些特点使这一旗舰加密货币处于成为主流的位置。Keiser强调,比特币作为全球支付交换媒介的优势,已经让包括花旗银行在内的银行过时。(The Daily Hold)[2021/3/15 18:44:12]

在MicrosoftCOCO基准数据集上的评估表明,ViDT在现有的完全基于transformer的目标检测器中获得了最佳的AP和延迟权衡,其对大型模型的高可扩展性,可达49.2AP。

论文地址:https://openreview.net/pdf?id=w4cXZDDib1H

NEAR基金会已完全退出节点运营工作,主网实现去中心化:9月25日,NEAR官方发文宣布,NEAR基金会已完全退出节点的运营工作,改由社区接棒,NEAR主网实现去中心化。

目前基金会仍然可以委托通证,以对不同的节点提供支持,不过对整个网络已没有了控制权。因此可以说NEAR目前已实现去中心化了。过渡至Phase1意味着NEAR目前是由社区运营的网络了,不过这一阶段的网络还存在一些限制,用户还无法使用通证转账功能,平台也不会提供区块奖励。

新一批的社区运营商的第一项任务就是行使他们的治理权,为激活上述两项功能发起投票。而这又会推动主网向最终阶段,也就是社区治理的Phase2阶段。NEAR通证持有者已可以开始参与治理。(NEAR中文社区)[2020/9/25]

ViDT:视觉与检测Transformer

ViDT架构如下图2(c)所示:

动态 | 黎曼猜想或未被完全证明:在今日举行的海德堡论坛上,阿蒂亚爵士提出了对黎曼猜想证明方法的一个简单思路。关于证明黎曼猜想的具体细节方面,阿蒂亚爵士并未做出证明的全部工作,其思路基于一个物理上未被完全证明的常数,而更多是就自己未尽的事业向数学界的后辈们提出了四点建议。介于这篇文章目前还未经过同行审议,一些学者对他的推演过程存疑,同样,也有学者对此次黎曼猜想的证明过程质疑。此前报道显示,黎曼猜想若被证明,目前大部分加密算法都将存在较大风险,黎曼猜想所研究的是经典的质数分布问题。在实际运用中,质数可以在密码学、安全认证等领域发挥作用,例如现通用的RSA加密算法,加密计算的第一步是产生两个大质数,对极大整数做因数分解的难度决定了加密的可靠性。故寻找大质数、探寻质数分布的规律,一直是数学界关注的问题。[2018/9/24]

首先,ViDT引入了一种改进的注意力机制,名为ReconfiguredAttentionModule(RAM),该模块有助于ViT变体处理附加的和token以进行目标检测。因此,ViDT可以将最新的带有RAM的SwinTransformer主干修改为目标检测器,并利用其具有线性复杂度的局部注意力机制获得高可扩展性;

声音 | 布比联合创始人:完全去中心化征信体系短时间内是“乌托邦”:在“2018北京数字经济论坛 · 区块链应用创新峰会”上,布比联合创始人兼CTO王璟表示,目前小额消费金融可以根据数据模型进行风控,而数额比较大的放贷无法靠数据完成。同时他表示,征信体系依托于中心化模式,短时间内,完全依托智能合约形成的去中心化征信体系是个“乌托邦”。[2018/9/21]

其次,ViDT采用轻量级的无编码器neck架构来减少计算开销,同时仍然在neck模块上启用额外的优化技术。请注意,neck编码器是不必要的,因为RAM直接提取用于目标检测的细粒度表示,即token。结果,ViDT获得了比neck-free对应物更好的性能;

最后,该研究引入了用于知识蒸馏的token匹配新概念,它可以在不影响检测效率的情况下从大型模型到小型模型带来额外的性能提升。

EOP核心发起人王赟明:空投完全可能改变区块链项目的游戏规则:近日,EOP核心发起人王赟明表示,空投完全可能改变区块链项目的游戏规则:一个真正有价值的项目不需要进行ICO,更不能把社区的参与者当成韭菜来割,通过空投这种方式完全有可能获得成功,而未来一定会出现市值10亿美金以上的基于EOS的空投项目。目前全球已有1/4共计2.6亿枚EOS的持币者,向EOSpace官方主动申请领取了EOP的1:1空投,目前主流的交易所已都支持EOP的空投。[2018/6/20]

RAM模块

该研究引入了RAM模块,它将与和token相关的单个全局注意力分解为三个不同的注意力,即×、×和×注意力。如图3所示,通过共享和token的投影层,全部复用SwinTransformer的所有参数,并执行三种不同的注意力操作:

ENCODER-FREEneck结构

为了利用多尺度特征图,ViDT结合了多层可变形transformer解码器。在DETR家族中,其neck部分需要一个transformer编码器,用于将从骨干中提取的用于图像分类的特征转换为适合目标检测的特征;编码器通常在计算上很昂贵,因为它涉及×注意力。然而,ViDT只保留了一个Transformer解码器作为其neck,因为带有RAM的SwinTransformer直接提取适合目标检测的细粒度特征作为独立的目标检测器。因此,ViDT的neck结构在计算上是高效的。

解码器从带有RAM的SwinTransformer接收两个输入:从每个阶段生成的token从最后阶段生成的token,如图2(c)的Neck所示。在每个可变形的transformer层中,首先执行×注意力。对于每个token,应用多尺度可变形注意力以生成一个新的token,聚合从多尺度特征图

中采样的一小组关键内容:

用于目标检测的token匹配知识蒸馏

虽然大型模型具有实现高性能的高容量,但在实际使用中它的计算成本可能很高。因此,该研究还提出了一种简单的知识蒸馏方法,可以通过token匹配从大型ViDT模型中迁移知识。

匹配每一层的所有token在训练中非常低效,因此,该研究只匹配对预测贡献最大的token。两组token直接相关:P:用作多尺度特征图的token集合,由body中的每个阶段生成,D:token的集合,它们是从neck的每个解码层生成的。因此,基于token匹配的蒸馏损失公式为:

评估

表2将ViDT与DETR(ViT)和YOLOS的AP、FPS等进行了比较,其中DETR(ViT)有两个变体:DETR和DeformableDETR。

实验结果表明:ViDT实现了AP和FPS之间的最佳权衡。凭借其高可扩展性,其性能优于1亿个参数的Swin-base,在相似的AP的下,FPS比DeformableDETR快2倍。此外,ViDT参数为16M,得到40.4AP,比DETR(swin-nano)和DETR(swin-tiny)高分别高6.3AP、12.6AP。

表3对比了不同空间位置编码与ViDT的结果。结果表明:pre-addition比post-addition带来的性能提升更高,即sinusoidalencoding优于learnable编码;因此,正弦空间编码的2D归纳偏置在目标检测中更有帮助。特别是,与不使用任何编码相比,使用正弦编码的预加法将AP增加了5.0。

表4总结了使用不同选择策略进行交叉注意力时的AP和FPS,其中SwinTransformer总共包含四个阶段。有趣的是,只要在最后阶段激活交叉注意力,所有策略都表现出相似的AP。由于在各个阶段中以自下而上的方式提取特征,因此在低级别阶段很难直接获得有关目标对象的有用信息。因此,研究者想要获得较高的AP和FPS,只使用最后阶段是最好的设计选择,因为token的数量最少。

为了彻底验证辅助解码损失和迭代框细化的有效性,该研究甚至对YOLOS等neck-free检测器进行了扩展。表5显示了两种neck-free检测器YOLOS和ViDT(w.o.Neck)性能。实验结果证明在ViDT中使用Neck解码器来提高目标检测性能是合理的。

下图表明:教师模型的规模越大,学生模型的收益越大。从系数来看,系数值越大,性能越好。模型蒸馏将AP提高了1.0-1.7,而不会影响学生模型的推理速度。

研究者将所有提议的组件结合起来,以实现目标检测的高精度和速度。如表8所示,有四个组件:(1)RAM将SwinTransformer扩展为独立的目标检测器,(2)neck解码器利用多尺度特征和两种辅助技术,(3)从大模型中获益知识蒸馏,(4)解码层drop进一步加快推理速度。结果表明:当使用Swin-nano作为其主干时,它仅使用13M参数就达到了41.7AP和合理的FPS。此外,当使用Swin-tiny时,它仅损失了2.7FPS而表现出46.4AP。

郑重声明: 本文版权归原作者所有, 转载文章仅为传播更多信息之目的, 如作者信息标记有误, 请第一时间联系我们修改或删除, 多谢。

金星链

[0:15ms0-1:58ms