跳到主要内容

2 篇博文 含有标签「神经网络」

神经网络相关文章

查看所有标签

Swin Transformer总结

· 阅读需 24 分钟
Jiajie Wu
一名崭新水手

Transformer在NLP领域大展身手,但将Transformer迁移到CV领域,会面临两个困难:

  1. 尺度问题:在一些CV任务中,比如目标检测问题,具有相同语义的实例由于尺度的问题,在图像中占据不同的像素规模,但目前基于Transformer的方法中,图像切片都是固定大小的。
  2. 计算复杂度:图像的特征张量展开成向量的方式计算自注意力这个过程,当图像分辨率稍大时,该过程的复杂度将变得难以忍受,因为此时的计算复杂度将与图像大小的平方成正比,这让Transformer在诸如语义分割的下游任务(需要像素级别的标签预测)中遇到困难。

为了解决上述问题,作者提出的Swin Transformer仅在局部窗口计算自注意力,并提出用Shifted windows得到特征的全局上下文信息(全局特征)。

评论

Transformer简介

· 阅读需 23 分钟
Jiajie Wu
一名崭新水手

Transformer是谷歌在2017年提出的一种基于注意力机制的神经网络架构,它在自然语言处理(NLP)领域取得了显著的成果,并逐渐在计算机视觉(CV)领域展现出强大的潜力。

Transformer

评论