百科问答小站 logo
百科问答小站 font logo



NIPS 2018 有什么值得关注的亮点? 第1页

  

user avatar   2prime 网友的相关建议: 
      

……真无聊

就没人能介绍一下好的paper idea吗

我就看到好几篇我觉得挺有趣的文章

可能是我也是loser


===============

【持续更新】推荐几篇 抛砖引玉


  1. Chen, Tian Qi, et al. "Neural Ordinary Differential Equations."arXiv preprint arXiv:1806.07366(2018).

我一直在做的方向是ode来分析neural network

比如我的icml2018年工作

Yiping Lu,Aoxiao Zhong,Quanzheng Li,Bin Dong. "Beyond Finite Layer Neural Network:Bridging Deep Architects and Numerical Differential Equations"Thirty-fifth International Conference on Machine Learning (ICML), 2018

可以看我之前的回答

ICML 2018 有哪些值得关注的亮点? - 2prime的回答 - 知乎 zhihu.com/question/2768

这篇paper把这个ODE的观点用到了flow model上

flowmodel最贵的一步要算neural network的jacobi 【变量代换公式】

这里用了ode观点一下子把计算量从O(n^2)->O(n)

作者最近有一篇FLORD也挺有意思的

这是我见过最convince的的用ODE给neural network会带来好处的工作!!!!



2. Zhang, Jingzhao, et al. "Direct Runge-Kutta Discretization Achieves Acceleration."arXiv preprint arXiv:1805.00521(2018).(Spotlight)

也是和Su, Candes, Boyd的paper一样用ODE建模nesterov加速的方法

大概是以前M.J 提出来了一系列可以达到O(1/k^p)收敛速度的ode,但是没人能证明的离散的算法收敛阶

这片工作据我所知是第一篇证明了离散的算法的收敛阶的

大概两点吧

1.L-smooth的假设在这里加强了

2.如果用s阶runge-kutta method收敛阶是O(1/k^(ps/(s+1)))可以看到我们的离散算法破坏了算法的收敛阶

其实有趣的事情是貌似在ode里好的格式在优化里会破坏收敛阶,在ode里很差的格式可以在优化里提升收敛阶(nesterov可以看成对gradient flow的线性多步法,就是很不稳定。。。)


3.Jin, Chi, et al. "Is Q-learning Provably Efficient?."arXiv preprint arXiv:1807.03765(2018).

读完看下吧




  

相关话题

  新手如何实现个简单AutoML框架。有参考的github开源项目介绍吗? 
  人工智能在麻将领域能够战胜人类吗? 
  对神经网络某一层做了小改进,效果却提升显著,可以发论文吗? 
  日本政府明年开始推行 AI 婚配,利用的是什么原理?你接受 AI 婚配吗? 
  机器学习系统MLSys中有哪些比较有前途的研究方向? 
  如何看待任正非在国家科技大会上的发言? 
  如何评价Yann LeCun 说的「要研究机器学习,本科应尽量多学物理和数学课」? 
  如何看待清华段子手“毕导”毕啸天至今没有发表过高质量论文? 
  人工智能和自动控制能在一起擦出什么样的火花? 
  Batch normalization和Instance normalization的对比? 

前一个讨论
如何理解拉格朗日乘子法?
下一个讨论
哈佛大学由于心肌干细胞不存在而大量撤稿,国内所有阳性指标论文是否都涉嫌造假?





© 2024-11-24 - tinynew.org. All Rights Reserved.
© 2024-11-24 - tinynew.org. 保留所有权利