百科问答小站 logo
百科问答小站 font logo



对神经网络某一层做了小改进,效果却提升显著,可以发论文吗? 第1页

  

user avatar   YunheWang 网友的相关建议: 
      

谢邀,这个邀请的好,我确实是经常带着大家一起做点“小改进”~ :)

其实,在确保实验结果没错的情况下,很多小改动背后都有很多的研究工作和大量的实验佐证。

例如从ResNet到ReNeXt增加了group convolution,从GoogleNet到mobilenet,把传统的convolution变成了depth-wise+point-wise conv,从而大幅度降低了计算量。


讲一下组内最近两年对神经网络的一些研究和思考,由于depth-wise conv在端侧的性能很好,我们在GhostNet当中也大量使用了depth-wise,单独看GhostNet中每一个layer,其实我认为也是“小”改进,因为直观来说,只是把原来的一个conv layer拆成了一个conv layer 跟随一个 depth-wise layer然后concact到一起:

但其实,我们最初的想法是观测到神经网络中大量的冗余且有用(例如,对样后续的特征聚合和分类器的训练还是有帮助的,如果去掉对精度影响较大)的特征,提出引入更多的廉价计算的:

那这些特征之间其实是可以通过很多变换来取得的,比如放射变换、特征间的残差、平移、亮度的改变等等。但是为什么最后用depth-wise了呢?说白了还是因为depth-wise跑得快,我们各个版本都有尝试过,甚至有更高精度的模型产生,但是平衡速度和精度,depth-wise就是最合适的了,并且3x3的depth-wise也是可以学习到很多类似放射变换和滤波器的一些性质的,于是就构建了现在普遍在工业界用到的GhostNet:

最近在NeurIPS 2020上,有幸有一个新工作被接受了,还是我跟凯哥一起的工作(也感谢合作者的指导和贡献):Model Rubik's Cube: Twisting Resolution, Depth and Width for TinyNets

那问题又回来了,新工作的改进“大”还是“小”呢?这个paper,我愿意叫它“EfficientNet下”(当然谷歌的同学不一定愿意哈哈)。

EfficeintNet是一个好工作,它告诉了我们怎么把一个baseline模型放大,做到B7,做到B8,做成一系列CV骨干模型。但是,遗留问题是我们想要更小的模型怎么办?这个paper就讨论了如何从一个baseline生成一些列更小的模型,我们称之为TinyNet。在补充材料中,我们结合TinyNet当中模型缩小的技术与GhostNet,刷新了端侧小模型的性能:


上面提到这两个工作基本是说我们如何对网络结构进行“小”调整,“小”改进。接下来讲讲如何在卷积核上做“小”改动。

上面这个工作每次看到都有点小感慨,2018年,博士毕业前夕,跟着徐老师一起肝了最后一篇博士期间投稿的论文,在入职之后收到了accept。主要的motivation还是以前传统cv中的multi-support regions 用来提升keypoint matching的一个小技巧,用到卷积核中,就可以一个5x5的卷积核复用3次,进而减少计算量和内存。不过想让这个技术实用起来,还是要打架自己动手改cuda的。

另一个“小”改动就是最近一年的重点,加法神经网络:

这个改动我认为是非常小了,对比上下两个公式(注:对比原文,改了一下+-):

看起来是不是很像,上面是加法,下面是乘法。用上面的公式计算卷积的就是加法神经网络。那它的结果呢?如下:

精度略有损失,但是收益呢?来看下面这个经典的表(ISSCC 2014):

乘法的能耗和电路面积是加法的数倍,但是精度还不够啊,怎么办?NeurIPS 2020的一个工作中,我们提出了一种针对从乘法网络到加法的知识蒸馏:

加法网络的特征分布进一步得到了优化:

同时,resnet-50的top5 acc达到了93.3%已经超过了乘法的baseline (92.9%),这篇有幸被评为spotlight,area chair的meta-reviews也给了很多鼓励:

I believe that by bridging the gap between Adder NN and CNNs this work provides a considerable contribution, allowing Adder NN to be considered among practical architecture and encouraging the community to research them further.

最后,欢迎大家对相关paper进行讨论,基本都开源了。

争取持续为神经网络或者说人工智能做有意思的小改进~


2021/1/30更新,模型算法小改动之后,硬件上我们也做了一些小改动,大家感兴趣的可以来看看加法网络的低比特量化和FPGA实现:


user avatar   zhu-wang-xiao-miao-o 网友的相关建议: 
      

首先,你得确保,你不是下面这种情况:

也就是说:

不要在测试集上训练!

不要在测试集上训练!!

不要在测试集上训练!!!

然后,如果不是的话,那你的表情应该如下:

接下来,你就可以化身为童话大王安徒生:

慢慢尝试,努力的把一个平淡的故事,讲述成传奇:

接着,用优质的图片,让读者陪你一起品味,屎一般的实验数据:

最后,写出一篇模板化的炫酷文章(已黑化):

最后,以上言论都是随便写写,开玩笑的。


user avatar   huang-yi-jie-20-47 网友的相关建议: 
      

首先这是Fed一月 memo

先说结论:

FOMC 维持利率在 0-0.25% 不变。且确定 3 月完全停止 QE,同时 3 月加息也是箭在弦上,基本会后声明皆符合市场预期,没有太多的意外。

Powell 记者会确实是偏一点点的小鹰派,但我也认为,Powell 的说法不至于拉升市场加息预期至 5次 、并拉升缩表预期至上半年,反而比较像是在强化加息 4 次之预期。

另外我个人觉得,一些中文媒体似乎误读了Powell 记者会的部分片段,下面 Allen 再进一步说明。


1. 3 月加息停止 QE 早已定价

本次会议 Fed 再次确认 3 月将准备第一次加息,并同时停止 QE。

Fed 也再次重申,货币政策是要支持美国经济达到充分就业、与通膨长期均值维持 2.0% 的两大目标。

这部分我想市场早已定价,这裡完全不会是问题,所以我们不讨论太多。


2.未来加息在每次会议都可能发生 (?)

Powell 的原文说法是:Won't Rule Out Hike Every Meeting.

但我有看到部分中文媒体写:不排除每次会议都加息的可能性。

上述我想或许是误读了 (还是其实是我自己误会中文的意思 ?)

我的理解是:Powell 是说加息在未来每场会议都可能发生,指的是“不会在特定月份才加息”,不是说每场都要加息。

Powell 说得很合理,经济本来就是动态的,加息本就不会侷限在什麽月份才启动,端看当时的经济状况而定。

我认为Powell 上述说法,并未延展今年加息预期至五次或更多,若有这种想法,那绝对是误读了。


3.更大规模的缩表?

Powell 在记者会上提到,Fed 需要更大规模的缩表,但请大家不要恐慌,因为我又觉得部份中文媒体过度解读了。

我认为Powell 说到的“更大规模缩表”,在思维上指的是:

因为当前 Fed 资产负债表高达 8.9 万美元,这是新冠疫情爆发之前的两倍大,显然在绝对规模上是非常巨大的。

而上一轮 2017-2019 年 Fed 缩减资产负债表,是自 4.4 万亿美元缩到 3.7 万亿美元停止,缩表的幅度大概是 15.9%,共缩减了约 7000 亿美元。

确实每次缩表的经济背景绝对是不一样的,所以幅度也绝对不会相同,但我们随便抓,假设本轮缩表将缩减 10% 资产负债表规模,那麽这也要降低 8900 亿美元,规模当然很大。

但我认为,不需要过度恐慌在“更大规模缩表”这几个字上。更重要的,我认为是“Fed 缩表的速率是多少?”

我相信缩表没问题,缩表太快才是问题,因为缩表速度若太快,将直接影响的会是美债殖利率升速、以及殖利率曲线的斜率。

这点Powell 也非常清楚,Powell 在记者会上也不断强调,联准会内部尚未具体讨论到一切缩表的进度,要等到 3 月再说。


4.缩表比较可能落在下半年

Powell 在记者会上说明,希望在加息至少一次之后,再来开会讨论缩表的事情,且委员会至少将讨论一次,才会做最终拍板。

更重要的,Powell 希望缩表的进程是有秩序的、是可被预见的过程。

从上述Powell 丢出的时间表看,我个人认为缩表将落在 2022 下半年,最快可能是 6 月份,因为在 3 月加息后,Fed 才会来讨论缩表。

我个人相信 Fed 现在内部早已在讨论缩表,但委员会显然尚未准备好来与市场沟通缩表的前瞻指引。

而缩表这麽大的事情,我个人认为 Fed 需要起次跟市场沟通 2 次,并把缩表规划说得非常清楚之后,才会开始进行,所以比较合理的缩表时间,估计将会落在下半年。


5.最大风险:高通膨

Powell 在记者会上,大概提到了 800 万次的“高通膨压力”,并认为目前美国通膨风险仍在上升阶段,但预计 2022 通膨还是会回落。

Powell 说明,目前美国通膨居高不下,主要仍是供应链所致,白话来说就是供需仍然失衡,且供给侧 (Supply Side) 改善的速度是低于预期。

Powell 强调,目前美国高通膨持续存在,而美国经济要的是长期扩张,所以若要长期扩张,物价势必需要保持稳定。

这边开始进入正题了,我认为这是本次会议的最重要核心,是让我体感上,觉得 Fed 鹰派的地方。我认为 Fed 承认自己落后给菲利浦曲线 (Behind the curve),简单而言,Fed 这次的加息速度大幅落后给通膨。

由于 Fed 在 2021 年对于通膨的误判,先前 Fed 在 2021 年认为通膨在年底就可望自然回落,但也就是因为这件事没有发生,反而通膨还更为严重,所以目前才有使用加息来追赶通膨的压力。但当前宏观环境看,通膨的压力是来自于缺工、供应链紧俏等问题,再加上拜登政府的大力推行财政刺激在那边推波助澜~

所以这一次的通膨是来自于实体经济上的供需失衡问题,并不是金融市场过度投机、企业超额投资等问题,我认为 Fed 在这次的通膨问题上,能做得空间非常有限。

这裡将产生一个不确定性的较大风险,就是 Fed 只能靠货币紧缩去压通膨预期,但实体经济的根本性通膨问题,还是没有获得解决。变成最终 Fed 只能再用更剧烈的紧缩政策,去引导通膨预期走低后,尝试来压低实际通膨率,所以这裡将让 Fed 的紧缩路径,存在著较大不确定性。

比较好的处理方式,应该是直接去解决实体经济上的缺工和供应链/例如我之前提到的塞港问题,让实际通膨率自己走低、而不是靠 Fed 挤压通膨预期之后去引导。

谁可以去把坐在白宫裡疑似患有阿兹海默的白髮老头一巴掌打醒...还我特~


结论:我个人认为 Fed 今年将加息四次,不至于加息五次,而加息四次之预期,相信市场应该已经定价;至于缩表,相信市场尚未定价,估计将落在 2022 下半年,最快可能是 6 月。

如果 Fed 今年加息五次,我会感到非常意外,因为这意味著 Fed 很可能在 2023 年底、2024 年初,就因为美国经济放缓太快而需要降息,Fed 这波操作就会变得非常韭。

最后说说股市的想法目前 Nasdaq 已经插水一段时日,抑制通胀是当务之急,而股市所谓修正才多久已出现V转。对通胀而言意义不大,修正数月才可能有帮助~所以我之前一直描述为“恐慌”。因此对白髮老头而言,怎麽做才有利于中期选举就很清晰了。

最好还是坚持认为市场或已定价加息四次之预期,但缩表预期则是尚未定价的观点。

配置上美股我倾向持有科技权值股,一些 Megacap 的估值我认为合理、前景确定性较高,而这样也可以让你的收益贴著 QQQ 走。

考虑到一堆成长股腰斩,我也愿意加仓接刀成长股,但建议佔据投资组合的比例,或许不要超过 15%,如果选股功力不错,这裡就会开始让你的收益拉开与 QQQ 之类的差距。

最后,我相信人人都会想在市场下跌的环境裡接刀,接刀不是不行,但若接刀失败,斩缆我建议速度要快,我个人不考虑价投的话一次斩缆的比例都是 50% 以上。




  

相关话题

  如何看待「机器学习不需要数学,很多算法封装好了,调个包就行」这种说法? 
  编程语言发展史上有哪些趣事? 
  北京深鉴科技基于FPGA平台的DPU架构如何? 
  成为SCI期刊审稿人是一种怎样的体验? 
  机器学习初学者该如何选读适合自己水平的论文? 
  Alice 和 Bob 各有一个 0-9 的数,他们怎样能在不暴露自己数的前提下知道双方数字是否相同? 
  2017年1月18日Facebook发行的PyTorch相比TensorFlow、MXNet有何优势? 
  现在的人工智能是否走上了数学的极端? 
  有没有必要把机器学习算法自己实现一遍? 
  如果有人想走遍中国所有的省级行政区(含港澳台),总路程最小可以是多长? 

前一个讨论
十二星座是什么样的?
下一个讨论
在原电池中,加根导线,为什么就能够将氧化反应与还原反应分开进行呢?





© 2024-11-21 - tinynew.org. All Rights Reserved.
© 2024-11-21 - tinynew.org. 保留所有权利