百科问答小站 logo
百科问答小站 font logo



如何理解 Swin Transformer 和 Vision Transformer不同任务上的差异? 第1页

  

user avatar    网友的相关建议: 
      

基于个人经验说个,vit的方案在疏松的数据上不行,比如sketch、colormap。

以前只是基于猜想,前段时间做了实验测试。16x16和直接的projection对于大部分自然数据的确是足够的,但是有些数据就是不够。具体可以拿16x16的格子对着数据比较。如果格子间的内容数据几乎差不多,那么就很依赖来自位置的global推理了,对数据增强和数据量都有要求。我猜flower可能就有这样的情况。而imagenet-skhtch的sketch不够稀疏,去掉shade可能就不一样了(似乎又可以搞篇文章)。

另外数据任务对global和local任务要求的情况也有关,但是这个衡量起来就比较难说清楚了。

我自己用的解决方法是,conv downsampling取代projection,然后配合数据稠密化,效果就好了。


user avatar   xiaohuzc 网友的相关建议: 
      

在大规模数据集上训练,应该vit的优势可能会显现出来,毕竟swin只是一种local attention net,理论上建模效果会比vit这种global attention net要差一些。




  

相关话题

  计算机视觉研一,只学过Python基础,目前代码能力很差,要不要换导师,不换的话如何毕业? 
  如何评价微软亚研院提出的把 Transformer 提升到了 1000 层的 DeepNet? 
  pytorch ddp训练中一个node fail,导致整个训练失败,有可能解决吗? 
  如何评价移动端吊打一切万众期待的商汤深度学习推理框架PPL开源了却没有支持移动端? 
  在算力充沛,深度学习模型大行其道的今天,传统机器学习的未来在哪里? 
  如何看待NIPS2017图灵奖得主贝叶斯网络之父Judea Pearl讲座无人问津? 
  2021年,作为算法工程师的你们会在CV业务落地上用Transformer吗? 
  深度学习attention机制中的Q,K,V分别是从哪来的? 
  神经网络的损失函数为什么是非凸的? 
  如何理解今年发表在JMLR上随机森林算法SPORF? 

前一个讨论
在长城汽车工作是种怎样的体验?
下一个讨论
结合深度学习的图像修复怎么实现?





© 2025-03-10 - tinynew.org. All Rights Reserved.
© 2025-03-10 - tinynew.org. 保留所有权利