百科问答小站 logo
百科问答小站 font logo



如何理解马氏距离,多维Mahalanobis距离是否要用到“互相关张量”来进行描述? 第1页

  

user avatar   frombeijingwithlove 网友的相关建议: 
      

一般谈到马氏距离是不能脱离开样本分布的,题主说的“互相关张量”应该指的是样本的协方差矩阵,这个也是和样本分布密切相关的,来看个例子:

左下角在二维空间中由一个分布产生的方块样本,这个分布的一条等高线如虚线的椭圆框所示,图中还有一个不属于该分布的圆圈样本。这是是一个典型的欧式距离会把分布外样本算的更近的例子,比如把绿色和蓝色样本单拎出来,就是左上角的图,蓝色小圆圈和中心的绿色方块更近了,这是因为单纯的欧式距离无法反应方块的分布。这种情况下,考虑用马氏距离。这里默认方块的分布可以由协方差矩阵很好描述(比如是个多维高斯分布),那对于任意两点x和y马氏距离的计算就是下面:

就是协方差矩阵,这样计算出的距离就像

@王赟 Maigo

说的一样不再是各向同性,对于方块的分布而言有个良好性质是分布的等高线上到中心的马氏距离相等了,因为马氏距离包含了方块本身分布的信息。进一步来理解,马氏距离可以表示为下面这样:

其实等效于做了个线性变换,然后在变换后的空间中求了下欧式距离,其中可以表示为,其中是个对角矩阵,对角线元素分别为协方差矩阵本征值的倒数开方,的行向量就是协方差矩阵的本征值。无论多少维,协方差矩阵的计算都是一样的,可以参考wiki上协方差矩阵的定义:

Covariance matrix

。关于为什么,为什么协方差矩阵就是这个椭圆的理解可以参考另一个答案

主成分分析PCA算法:为什么去均值以后的高维矩阵乘以其协方差矩阵的特征向量矩阵就是“投影”? - 達聞西的回答 - 知乎



  

相关话题

  贝叶斯定理厉害在哪里? 
  有哪些「神奇」的数据获取方式? 
  简单解释一下sparse autoencoder, sparse coding和restricted boltzmann machine的关系? 
  因果推断会是下一个AI热潮吗? 
  法国计算机研究生(应届)是留在欧洲工作好,还是回国直接工作好? 
  数据挖掘、机器学习、自然语言处理这三者是什么关系?这几个怎么入门啊? 
  请问非参数统计中核密度估计的均方误差和均平方积分误差函数是怎么求出来的? 
  谁来用最通俗易懂的语言跟我讲一下k平均算法(k means clustering)?? 
  数理统计中未知参数的置信区间估计方法中,存在最佳的枢轴量吗? 
  在本科数学阶段你学过最有趣的一门数学课是什么?为什么? 

前一个讨论
电影铁拳中,看到拳击手辉煌的时候能挣很多钱,开好车住豪宅。但是为什么,一旦遇到重大变故,就会一无所有?
下一个讨论
我学编程为什么难?是思维方式不对还是学习方式不对?





© 2025-01-30 - tinynew.org. All Rights Reserved.
© 2025-01-30 - tinynew.org. 保留所有权利