看论文的排版、放出来的时间,我猜是投到了CVPR 19,目测又预定了best paper席位哈。
既然kaiming大神也注意到了这个问题,我就来聊聊我的看法。
我不是专业研究cv的,但是这个问题或多或少也和我有关。我从一个小弱的角度,来给这几年持续升温的迁移学习泼泼冷水。说得不对的地方,请各位海涵。
迁移学习领域近几年的代表方法,基本上都是深度迁移。很自然地,如同深度学习的评测数据集ImageNet,迁移学习领域也有一些公开的数据集,大多数都是图像分类。为了验证自己方法的有效性,我们争先恐后地刷榜。
所以你就会发现,近几年那些屠榜的深度迁移方法,绝大多数都采用了 ImageNet pretrained 网络,比如AlexNet和ResNet50。
ImageNet数据集的数据量是百万千万级、一千类。
而我们迁移学习的这些实验数据有多少呢:几千张图片、最多几十类。最近一两年的VisDA、Office-Home等数据集才突破了万。
所以看到很多这样的方法,我是蒙圈的~这也太欺负人了吧?大家都是图像,都是生活中的阿猫阿狗家具环境,本来差距就不太大。用一个在百万集图像上预训练好的ResNet50,来给几千张图片分类?杀鸡焉用牛刀?迁移学习是基于经验和历史知识不假,但是这知识也太过强大了。
然后精度上提升1个百分点,达成了state-of-the-art。再过几个月,另一个新方法,接着提升一小下,第一名又换人了。恕在下直言:搞不好这些微妙提升,都是计算误差。。。
最后还有一个很重要的问题:这样的深度网络怎么调参呢?大家都做的是Unsupervised transfer learning (domain adaptation),而这个情境下,target domain是没有任何label的。迁移学习领域通常只有source和target domain。没有validation set,也没人用过。(我不会告诉你很多其实都是直接在target domain上调参的)
我不是排斥使用ImageNet pretrained network,我只是觉得,应该找一些领域,让ImageNet真正有用。不妨试试用这些预训练好的网络去进行医学图像分类、极端图像(低分辨率、逆光、精细图像、卫星)分类,这才是ImageNet的正确价值。结果应该会很酸爽。
不过,欣喜的是,也有一批采用了浅层网络,或者是加入对抗机制的浅层网络,在最近的顶会上有所突破。
不能一直随大流,是时候重新思考了。
相关链接:
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有