百科问答小站 logo
百科问答小站 font logo



如何理解矩阵对矩阵求导? 第1页

  

user avatar   yuangao 网友的相关建议: 
      

如果题主学过泛函分析,可能会更容易理解矩阵对矩阵的求导。

定义:假设和为赋范向量空间,是一个映射,那么在可导的意思是说存在一个有界线性算子,使得对于任意的都存在,对于满足的都有.我们称为在点的导数。

取一些特殊情况,比如当的时候就被称作梯度;当的时候被称作雅可比,等等。从这个一般化的定义出发的好处是,我们可以更好的理解矩阵到矩阵映射的"导数",甚至是从一个函数空间到另一个函数空间的“导数"。

以上定义有一个等价的表述,往往计算起来更方便:对于距离足够近的点,即,有

(注:此处应该理解为线性算子在这个点的值,而不是乘以。不过在有限维空间所有线性算子都可以用矩阵表述,在这个点的值便正好可以表述为矩阵与向量的乘积!这个notation正好巧妙的一致。)

例子:假设是一个的映射,其中为n维对称阵的空间。那么的导数就应该是的一个有界线性算子。究竟是什么样可以从定义出发计算:

所以我们有,这个就是在点的导数。这个函数(有界线性算子)可以用张量来表述,这里就不详细说了。

例子:最小二乘问题,是一个的映射。

所以我们有,这个就是在点的导数。在这种情况下,这个有界线性算子可以用梯度来表述(recall Riesz表示定理):

所以梯度。

例子:单层神经网络,是一个的映射。这里是一个elementwise的logistic function。算起来

其中为Hadamard乘积(elementwise乘积),为长度为m的元素均为1的向量。这里我使用了一维logistic函数的导数公式。所以

注:这个例子的倒数第二步到最后一步的计算影射了微积分中的一个重要的思想——链式法则(chain rule)。链式法则能够成立的本质是和。

最后,由于和是同构的,所以可以通过vectorization把矩阵映射到中再进行计算,见 @SS Wang 的答案。




  

相关话题

  除了深度神经网络已经实现的特性以外,大脑还有哪些特性是值得机器学习领域借鉴的? 
  如何评价 MXNet 被 Amazon AWS 选为官方深度学习平台? 
  Jacobian矩阵和Hessian矩阵的作用是什么? 
  万有引力定律中,为什么由 F∝m、F∝M 可以推出 F∝Mm?如何用数学方法证明? 
  弧的长度与弦的长度之比的极限为1,能严格证明吗? 
  在有界闭区域上连续的多元函数一定有最大值和最小值是否正确? 
  为什么在实际的kaggle比赛中,GBDT和Random Forest效果非常好? 
  为什么无穷多个无穷大的乘积不一定是无穷大? 
  请问这道数竞题怎么做?请大神不吝赐教? 
  请问如何证明该极限? 

前一个讨论
怎么做出有卖相又好吃的回锅肉?
下一个讨论
有哪些形式简单却很难证明的不等式?





© 2024-09-19 - tinynew.org. All Rights Reserved.
© 2024-09-19 - tinynew.org. 保留所有权利