百科问答小站 logo
百科问答小站 font logo



GPU 与 CPU 比较,为什么说 GPU 更适合深度学习? 第1页

  

user avatar   superbrother-58 网友的相关建议: 
      

深度学习模型里涉及大量的矩阵(张量)运算

这里简单分析一下CPU、GPU如何进行矩阵乘法运算

对于 维的矩阵 ,

以及 维的矩阵

在计算两者乘积的结果 时, 中任意一个元素的计算公式为:

据此可以看出 中每个元素 的计算没有关联性,也就是说可以同步并行计算。

如下图所示,CPU好比有几个或十几个“高性能的小计算器”(CPU的核心),而GPU好比有成千上万个“普通的小计算器”(GPU的核心),每个小计算器都被派去分别去执行 运算。由于运算仅涉及简单的乘法与加法,所以两种小计算器都能胜任,只是计算效率有高低之分。

由此不难看出,CPU完成单次运算的速度很快,但是由于一批次仅能算出数个元素,计算 中所有的元素需要多轮次的运算

而GPU虽然单次运算的速度很慢,但是一批次运算就可以算出大量元素

维度较小时,CPU与GPU计算的效率可能相差不大,当矩阵维度较高时,GPU拥有大量核心的优势就会更加明显(这里有一个实验对比【矩阵计算GPU加速】numpy 矩阵计算利用GPU加速,cupy包

而深度学习模型中涉及大量高维的矩阵运算,因此GPU就可以很好地发挥加速作用




  

相关话题

  长得丑的女程序员如何向男程序员讨教如何写代码? 
  如何看待 GitHub 上许多学习笔记、面经等项目获得过多的 star? 
  为什么程序语言要设计成使用这么多shift? 
  电脑点击“关机”后,电脑如何实现自动切断电源? 
  女程序员在IT界的发展方向是什么? 
  国内人写代码的水平跟美国的差距在哪? 
  如何看待互联网大厂 90 后 IT 男赵树鸿辞去年薪百万工作,回农村当村官扶贫养猪? 
  程序员工作压力大,身体也垮,为什么还这么多人想做程序员?是因为喜欢吗? 
  作为 IT 行业的过来人,你有什么话想对后辈说的? 
  「贪心算法」的算法思路是什么,它存在什么缺陷? 

前一个讨论
如何自学数学以达到数学博士的水平?
下一个讨论
既然报个培训班就可以成为码农,那学计算机专业有什么用?





© 2025-02-21 - tinynew.org. All Rights Reserved.
© 2025-02-21 - tinynew.org. 保留所有权利