百科问答小站 logo
百科问答小站 font logo



BERT模型可以使用无监督的方法做文本相似度任务吗? 第1页

  

user avatar   cai-jian-wei-47 网友的相关建议: 
      

语义相似度的方法,一般包括:不交互的方法(query和doc各自构建embedding,再由匹配层计算相似度)、交互的方法(基于query和doc的二维相似度矩阵,构建交互的embedding,直接计算相似度)。从训练的loss或者语义相似度的效果来看,交互的方法都会比不交互的方法好。

不过工业界为了构建embedding,正常会使用第一种方法,主要是为了利用faiss或者nsg等,更方便的做大规模语义向量的检索。第二种方法,会用于精排序。

拿bert做语义相似度的任务,可以考虑以下两方面:

1)复用了预训练模型学习到外部语料的表征(直接使用开源bert模型的cls embedding计算出来的pooled output效果会比较差;主要是数据的差异性导致的,因此需要做fine-tune)。正常gpu充裕可以做一版特定领域数据的预训练模型,学习到领域数据的表征

2)在下游的语义匹配任务,做fine-tune。利用了bert模型里面的transformer结构,相比以往的lstm或者cnn模型,对文本的表征更好。


user avatar   su-jian-lin-22 网友的相关建议: 
      

女王:求求题主放过我,我可不敢有什么政绩。。。




  

相关话题

  ICLR 2022有哪些值得关注的投稿? 
  NLP文本匹配问题的本质是不是 对于要预测的句子,遍历候选句子 从训练数据集里寻找最相似的pair? 
  Domain Adaptation学术上有哪些方向,还有哪些可做的地方? 
  如何评价CVPR2019程序主席Derek Hoiem的论点:计算机视觉只是记忆,不是智能? 
  5-10年后,你觉得哪些科技会让我们“遗忘”现在的生活? 
  测试集在构造的时候需要人为控制其中应该正确的和应该错误的数据比例吗? 
  深度学习(机器学习)的下一步如何发展? 
  如何评价沐神他们写的《动手学深度学习》这本书? 
  为什么现在有这么多人工智能无用论? 
  人工「神经网络」技术在信息处理上有何特点,工作原理是什么? 

前一个讨论
男方家境不好真的不能嫁嘛??
下一个讨论
在优化问题里,强化学习相比启发式搜索算法有什么好处?





© 2024-11-24 - tinynew.org. All Rights Reserved.
© 2024-11-24 - tinynew.org. 保留所有权利