百科问答小站 logo
百科问答小站 font logo



机器学习的理论方向 PhD 是否真的会接触那么多现代数学(黎曼几何、代数拓扑之类)? 第1页

  

user avatar   zhao-wen-bo-61 网友的相关建议: 
      

不会。

我刚开始是做deep learning和经典machine learning的,其间学习了statistical learning的理论,涉及到的主要是概率、statistical estimation、asymptotic theory、实分析和泛函分析、优化理论之类的东西。这些属于应用性比较强和比较基础的理论,以统计和优化尤为重要。

再后来做generative models和GAN的时候接触了一些manifold的理论,然后系统的学习了topological manifold、differential geometry和Riemannian geometry,发现非常有意思,但是实用意义不大。现在一些关于deep learning的几何观点和最优传输理论(比如顾老师团队的研究)虽然很有前景,但是还不是很成熟,未来在这一方向的理论发展还不是很明朗。

另外也有应用algebraic topology来研究deep learning的,但是也不是很成熟。其他关于deep learning的理论研究目前几乎不需要什么几何或者代数功底。




  

相关话题

  发了一篇JCR一区的SCI是怎么样的体验? 
  如何看待中山大学 2019 年毕业典礼只允许本科生参加? 
  数学 PhD 有很多内容要学习吗? 
  高学历(硕士或博士)的优势比起本科在哪里? 
  如何通俗易懂地介绍 Gaussian Process? 
  如何激怒一位人工智能(机器学习、深度学习、强化学习等)爱好者? 
  博士师兄总是拉我(研一男)工作到12点多,怎么办? 
  为什么拓扑的连续映射不倒着定义? 
  你见过哪些“人工智障”? 
  博士生除了写论文还有什么其他的输出方式? 

前一个讨论
如何看待任正非与尼古拉斯·尼葛洛庞帝(Negroponte)和乔治·吉尔德(Gilder)的问答?
下一个讨论
如何看待虎扑最近针对库里的「脱库大会」?





© 2025-06-06 - tinynew.org. All Rights Reserved.
© 2025-06-06 - tinynew.org. 保留所有权利