百科问答小站 logo
百科问答小站 font logo



NIPS 2018 有什么值得关注的亮点? 第1页

  

user avatar   2prime 网友的相关建议: 
      

……真无聊

就没人能介绍一下好的paper idea吗

我就看到好几篇我觉得挺有趣的文章

可能是我也是loser


===============

【持续更新】推荐几篇 抛砖引玉


  1. Chen, Tian Qi, et al. "Neural Ordinary Differential Equations."arXiv preprint arXiv:1806.07366(2018).

我一直在做的方向是ode来分析neural network

比如我的icml2018年工作

Yiping Lu,Aoxiao Zhong,Quanzheng Li,Bin Dong. "Beyond Finite Layer Neural Network:Bridging Deep Architects and Numerical Differential Equations"Thirty-fifth International Conference on Machine Learning (ICML), 2018

可以看我之前的回答

ICML 2018 有哪些值得关注的亮点? - 2prime的回答 - 知乎 zhihu.com/question/2768

这篇paper把这个ODE的观点用到了flow model上

flowmodel最贵的一步要算neural network的jacobi 【变量代换公式】

这里用了ode观点一下子把计算量从O(n^2)->O(n)

作者最近有一篇FLORD也挺有意思的

这是我见过最convince的的用ODE给neural network会带来好处的工作!!!!



2. Zhang, Jingzhao, et al. "Direct Runge-Kutta Discretization Achieves Acceleration."arXiv preprint arXiv:1805.00521(2018).(Spotlight)

也是和Su, Candes, Boyd的paper一样用ODE建模nesterov加速的方法

大概是以前M.J 提出来了一系列可以达到O(1/k^p)收敛速度的ode,但是没人能证明的离散的算法收敛阶

这片工作据我所知是第一篇证明了离散的算法的收敛阶的

大概两点吧

1.L-smooth的假设在这里加强了

2.如果用s阶runge-kutta method收敛阶是O(1/k^(ps/(s+1)))可以看到我们的离散算法破坏了算法的收敛阶

其实有趣的事情是貌似在ode里好的格式在优化里会破坏收敛阶,在ode里很差的格式可以在优化里提升收敛阶(nesterov可以看成对gradient flow的线性多步法,就是很不稳定。。。)


3.Jin, Chi, et al. "Is Q-learning Provably Efficient?."arXiv preprint arXiv:1807.03765(2018).

读完看下吧




  

相关话题

  如何看待武汉2小学生研究茶多酚抗癌获奖,涉事实验室回应称,「不可能允许进入」?事情真相到底是怎样的? 
  如何看待 2019 年麻省理工选出的全球十大突破性技术,你觉得其中哪个技术会在 5 年内产生巨大影响? 
  机器学习系统MLSys中有哪些比较有前途的研究方向? 
  如何理解马云在世界人工智能大会上说的「保护哭喊的落后力量,一定会阻碍创新」? 
  如何评价Kaiming He团队的MoCo v3? 
  如果不按套路下棋是不是就能赢 Alpha Go 了? 
  期刊一样的情况下,一篇六人论文的一作,和两篇三人论文的二作,哪个含金量高? 
  如何评价沐神他们写的《动手学深度学习》这本书? 
  请问机器学习中的预测与决策的区别是什么,他们的界限在哪里呢? 
  为什么一边有人劝退机械,一边又有人看好机器视觉? 

前一个讨论
如何理解拉格朗日乘子法?
下一个讨论
哈佛大学由于心肌干细胞不存在而大量撤稿,国内所有阳性指标论文是否都涉嫌造假?





© 2025-05-05 - tinynew.org. All Rights Reserved.
© 2025-05-05 - tinynew.org. 保留所有权利