百科问答小站 logo
百科问答小站 font logo



transformer中的Q,K,V到底是什么? 第1页

  

user avatar   zhaomingming0617 网友的相关建议: 
      

Q:查询向量
K:表示被查询信息与其他信息的相关性的向量
V:表示被查询信息的向量

输入向量为:x, 1xm向量

       Q  = x * Wq K  = x * Wk V  = x * Wv  x对应信息V的注意力权重 与 Q*K.tranpose 成正比 等于说:x的注意力权重,由x自己来决定,所以叫自注意力。 Wq,Wk,Wv会根据任务目标更新变化,保证了自注意力机制的效果。  以下是点乘自注意力机制的公式     


user avatar   llllllllllll-6 网友的相关建议: 
      

哈哈,突然想到了一个很形象的解释方法:

你有一个问题Q,然后去搜索引擎里面搜,搜索引擎里面有好多文章,每个文章V有一个能代表其正文内容的标题K,然后搜索引擎用你的问题Q和那些文章V的标题K进行一个匹配,看看相关度(QK --->attention值),然后你想用这些检索到的不同相关度的文章V来表示你的问题,就用这些相关度将检索的文章V做一个加权和,那么你就得到了一个新的Q',这个Q'融合了相关性强的文章V更多信息,而融合了相关性弱的文章V较少的信息。这就是注意力机制,注意力度不同,重点关注(权值大)与你想要的东西相关性强的部分,稍微关注(权值小)相关性弱的部分。




  

相关话题

  如何评价 DeepMind 发表在 Nature 的论文公开无需人类棋谱的 AlphaGo Zero? 
  机器学习中的机器是如何分辨哪些是有用的知识,哪些是没用的信息呢? 
  如何开发一个自己的 TensorFlow? 
  计算机视觉和自然语言处理,哪个更具有发展前景呢,还是各有千秋呢? 
  NLP领域,你推荐哪些综述性的文章? 
  2021年深度学习哪些方向比较新颖,处于上升期或者朝阳阶段,没那么饱和,比较有研究潜力? 
  如何评价2020年计算机视觉顶会CVPR投稿量破万的现象? 
  如何看待多模态transformer,是否会成为多模态领域的主流? 
  为什么相比于计算机视觉(cv),自然语言处理(nlp)领域的发展要缓慢? 
  为什么Bert中的CLS在未fine tune时作为sentence embedding性能非常糟糕? 

前一个讨论
国家自然科学基金青年基金(2020)有那么难拿吗?
下一个讨论
想自学编程怎样下手?





© 2025-06-25 - tinynew.org. All Rights Reserved.
© 2025-06-25 - tinynew.org. 保留所有权利