不会。
我刚开始是做deep learning和经典machine learning的,其间学习了statistical learning的理论,涉及到的主要是概率、statistical estimation、asymptotic theory、实分析和泛函分析、优化理论之类的东西。这些属于应用性比较强和比较基础的理论,以统计和优化尤为重要。
再后来做generative models和GAN的时候接触了一些manifold的理论,然后系统的学习了topological manifold、differential geometry和Riemannian geometry,发现非常有意思,但是实用意义不大。现在一些关于deep learning的几何观点和最优传输理论(比如顾老师团队的研究)虽然很有前景,但是还不是很成熟,未来在这一方向的理论发展还不是很明朗。
另外也有应用algebraic topology来研究deep learning的,但是也不是很成熟。其他关于deep learning的理论研究目前几乎不需要什么几何或者代数功底。