语义相似度的方法,一般包括:不交互的方法(query和doc各自构建embedding,再由匹配层计算相似度)、交互的方法(基于query和doc的二维相似度矩阵,构建交互的embedding,直接计算相似度)。从训练的loss或者语义相似度的效果来看,交互的方法都会比不交互的方法好。
不过工业界为了构建embedding,正常会使用第一种方法,主要是为了利用faiss或者nsg等,更方便的做大规模语义向量的检索。第二种方法,会用于精排序。
拿bert做语义相似度的任务,可以考虑以下两方面:
1)复用了预训练模型学习到外部语料的表征(直接使用开源bert模型的cls embedding计算出来的pooled output效果会比较差;主要是数据的差异性导致的,因此需要做fine-tune)。正常gpu充裕可以做一版特定领域数据的预训练模型,学习到领域数据的表征
2)在下游的语义匹配任务,做fine-tune。利用了bert模型里面的transformer结构,相比以往的lstm或者cnn模型,对文本的表征更好。
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有