百科问答小站 logo
百科问答小站 font logo



机器学习的理论方向 PhD 是否真的会接触那么多现代数学(黎曼几何、代数拓扑之类)? 第1页

  

user avatar   zhao-wen-bo-61 网友的相关建议: 
      

不会。

我刚开始是做deep learning和经典machine learning的,其间学习了statistical learning的理论,涉及到的主要是概率、statistical estimation、asymptotic theory、实分析和泛函分析、优化理论之类的东西。这些属于应用性比较强和比较基础的理论,以统计和优化尤为重要。

再后来做generative models和GAN的时候接触了一些manifold的理论,然后系统的学习了topological manifold、differential geometry和Riemannian geometry,发现非常有意思,但是实用意义不大。现在一些关于deep learning的几何观点和最优传输理论(比如顾老师团队的研究)虽然很有前景,但是还不是很成熟,未来在这一方向的理论发展还不是很明朗。

另外也有应用algebraic topology来研究deep learning的,但是也不是很成熟。其他关于deep learning的理论研究目前几乎不需要什么几何或者代数功底。




  

相关话题

  2021年人工智能领域有哪些关键性进展和突破? 
  你的研究生生活是怎样的? 
  皮尔逊系数为什么要中心化?中心化之后有什么好处? 
  如何看待老教授、高年资博士、年轻副教授的科研水平? 
  博士读得不开心,如何是好? 
  如何比较Keras, TensorLayer, TFLearn ? 
  33 岁还有必要做博后吗? 
  在AIChe上发三篇论文足够申请MIT的博士后吗? 
  非名校 PhD 毕业生们都去了哪里? 
  作为维数公式的黎曼-洛赫定理在数学上的重要性体现在什么地方? 

前一个讨论
如何看待任正非与尼古拉斯·尼葛洛庞帝(Negroponte)和乔治·吉尔德(Gilder)的问答?
下一个讨论
如何看待虎扑最近针对库里的「脱库大会」?





© 2025-06-23 - tinynew.org. All Rights Reserved.
© 2025-06-23 - tinynew.org. 保留所有权利