百科问答小站 logo
百科问答小站 font logo



NIPS 2018 有什么值得关注的亮点? 第1页

  

user avatar   2prime 网友的相关建议: 
      

……真无聊

就没人能介绍一下好的paper idea吗

我就看到好几篇我觉得挺有趣的文章

可能是我也是loser


===============

【持续更新】推荐几篇 抛砖引玉


  1. Chen, Tian Qi, et al. "Neural Ordinary Differential Equations."arXiv preprint arXiv:1806.07366(2018).

我一直在做的方向是ode来分析neural network

比如我的icml2018年工作

Yiping Lu,Aoxiao Zhong,Quanzheng Li,Bin Dong. "Beyond Finite Layer Neural Network:Bridging Deep Architects and Numerical Differential Equations"Thirty-fifth International Conference on Machine Learning (ICML), 2018

可以看我之前的回答

ICML 2018 有哪些值得关注的亮点? - 2prime的回答 - 知乎 zhihu.com/question/2768

这篇paper把这个ODE的观点用到了flow model上

flowmodel最贵的一步要算neural network的jacobi 【变量代换公式】

这里用了ode观点一下子把计算量从O(n^2)->O(n)

作者最近有一篇FLORD也挺有意思的

这是我见过最convince的的用ODE给neural network会带来好处的工作!!!!



2. Zhang, Jingzhao, et al. "Direct Runge-Kutta Discretization Achieves Acceleration."arXiv preprint arXiv:1805.00521(2018).(Spotlight)

也是和Su, Candes, Boyd的paper一样用ODE建模nesterov加速的方法

大概是以前M.J 提出来了一系列可以达到O(1/k^p)收敛速度的ode,但是没人能证明的离散的算法收敛阶

这片工作据我所知是第一篇证明了离散的算法的收敛阶的

大概两点吧

1.L-smooth的假设在这里加强了

2.如果用s阶runge-kutta method收敛阶是O(1/k^(ps/(s+1)))可以看到我们的离散算法破坏了算法的收敛阶

其实有趣的事情是貌似在ode里好的格式在优化里会破坏收敛阶,在ode里很差的格式可以在优化里提升收敛阶(nesterov可以看成对gradient flow的线性多步法,就是很不稳定。。。)


3.Jin, Chi, et al. "Is Q-learning Provably Efficient?."arXiv preprint arXiv:1807.03765(2018).

读完看下吧




  

相关话题

  机器学习中的机器是如何分辨哪些是有用的知识,哪些是没用的信息呢? 
  如何看待华中科技大学 90 后博导胡玥回应,称网友质疑均为不实,且对涉及造谣言论或将进行法律追责? 
  如何看待 315 晚会曝光摄像头人脸识别遭滥用,需要如何解决? 
  吴恩达表示「AI 的下一个发展方向,从大数据转向小数据」,你同意他的观点吗? 
  文献综述怎么才能写好?发表论文最重要是什么 
  如何评价 7 月 31 日一流科技开源的深度学习框架 OneFlow? 
  多模态方面,有哪些牛组值得我们follow他们的工作? 
  实验室只有1080的显卡,老师还想让发深度学习论文,也不给配置好的显卡怎么办? 
  超越人类的人工智能 (AI) 是否能够实现? 
  会计会被机器代替吗? 

前一个讨论
如何理解拉格朗日乘子法?
下一个讨论
哈佛大学由于心肌干细胞不存在而大量撤稿,国内所有阳性指标论文是否都涉嫌造假?





© 2025-04-13 - tinynew.org. All Rights Reserved.
© 2025-04-13 - tinynew.org. 保留所有权利