小白提供一篇相关的文献 [ICLR'21],希望能有所帮助:
这个工作的出发点是半监督学习中的 psedo-label 选择,该方法也适用 multi-label。文章的方法很简洁,其实就是拿模型在每个标签的预测结果的 uncertainty 和一个阈值进行比较。公式如下:
这个公式就是获取一个 indicator,表示第 i 个样本的第 c 个标签是否可信。公式中的两项可以看作分别对 positive 和 negative label 的选择。例如加号左边一项,文章认为当标签的预测置信度大于某个阈值,且该标签的 uncertainty 小于某个阈值时,那模型在这个标签上的预测结果时比较可靠的。
这里的 uncertainty 的计算直接使用了模型多次预测结果的 标准差。
所以,我的观点是 multi-label 中可以逐个标签计算 uncertainty,使用类似 mc-dropout 的方式即可得到模型在每个 label 上的 uncertainty,然后进行筛选。
该工作的 code 在这里可以找到:Github code
很好的问题。
对Multi-Label Classification问题了解不多,不过要注意EDL里面是多分类模型的输出概率可以认为服从Dirichlet分布,而多标签分类的输出概率,并不满足这一分布,所以EDL是无法适用的。
类似于EDL的做法,可以看看早期的D-S证据理论在多标签分类领域的研究文献[1,2,3],还有近期基于Subjective Opinion的uncertainty estimation文章[4],看看如何借鉴EDL的做法,用Deep Learning方法估计uncertainty。
本站所有内容均为互联网搜索引擎提供的公开搜索信息,本站不存储任何数据与内容,任何内容与数据均与本站无关,如有需要请联系相关搜索引擎包括但不限于百度,google,bing,sogou 等
© 2025 tinynews.org All Rights Reserved. 百科问答小站 版权所有