百科问答小站 logo
百科问答小站 font logo



什么是蒙特卡罗 Dropout(Monte-Carlo Dropout)? 第1页

  

user avatar   pu-lu-shi-lan-88-4 网友的相关建议: 
      

Monte-Carlo Dropout(蒙特卡罗 dropout),简称 MC dropout,是一种从贝叶斯理论出发的 Dropout 理解方式,将 Dropout 解释为高斯过程的贝叶斯近似。

云里雾里的,理论证明看起来挺复杂,有兴趣可以参考论文:Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning. 以及这篇论文的 Appendix

但其实,MC dropout 用起来就简单了,不需要修改现有的神经网络模型,只需要神经网络模型中带 dropout 层,无论是标准的 dropout 还是其变种,如 drop-connect,都是可以的。

在训练的时候,MC dropout 表现形式和 dropout 没有什么区别,按照正常模型训练方式训练即可。

在测试的时候,在前向传播过程,神经网络的 dropout 是不能关闭的。这就是和平常使用的唯一的区别。

MC dropout 的 MC 体现在我们需要对同一个输入进行多次前向传播过程,这样在 dropout 的加持下可以得到“不同网络结构”的输出,将这些输出进行平均和统计方差,即可得到模型的预测结果及 uncertainty。而且,这个过程是可以并行的,所以在时间上可以等于进行一次前向传播。

神经网络产生的 softmax 概率不能表示 uncertainty?

其实我们在很多时候都拿了 softmax 的概率计算 uncertainty,比如主动学习查询策略中的 least confident、margin、entropy。在 entropy 策略下,softmax 的概率越均匀熵越大,我们就认为 uncertainty 越大;反之,在 softmax 某一维接近 1,其它都接近 0 时,uncertainty 最小。

但是,softmax 值并不能反应该样本分类结果的可靠程度。A model can be uncertain in its predictions even with a high softmax output. [1]

以 MNIST 分类为例,当模型在验证集上面效果很烂的时候,将一张图片输入到神经网络,我们仍然可以得到很高的 softmax 值,这个时候分类结果并不可靠;当模型在验证集上效果很好了,在测试集上甚至都很好,这个时候,我们将一张图片加入一些噪声,或者手写一个数字拍成照片,输入到网络中,这个时候得到一个较高的 softmax 值,我们就认为结果可靠吗?我们这个时候可以理解为,在已知的信息中,模型认为自己做的挺好,而模型本身并不能泛化到所有样本空间中去,对于它没有见过的数据,它的泛化能力可能不是那么强,这个时候模型仍然是以已知的信息对这个没有见过的数据有很强的判断(softmax 某一维值很大),当然有时候判断很好,但有时候判断可能就有误,而模型并不能给出对这个判断有多少 confidence。

而 MC dropout 可以给出一个预测值,并给出对这个预测值的 confidence,这也就是贝叶斯深度学习的优势所在。

MC dropout 示例代码

import tensorflow as tf

mnist = tf.keras.datasets.mnist


(x_train, y_train),(x_test, y_test) = mnist.load_data()

x_train, x_test = x_train / 255.0, x_test / 255.0


inp = tf.keras.layers.Input(shape=(28, 28))

x = tf.keras.layers.Flatten()(inp)

x = tf.keras.layers.Dense(512, activation=tf.nn.relu)(x)

x = tf.keras.layers.Dropout(0.5)(x, training=True) # dropout 在训练和测试时都将开着

out = tf.keras.layers.Dense(10, activation=tf.nn.softmax)(x)

model = tf.keras.Model(inp, out)


model.compile(optimizer='adam',

loss='sparse_categorical_crossentropy',

metrics=['accuracy'])


model.fit(x_train, y_train, epochs=3)

# 在测试过程,dropout 也是打开的,得到的结果将会有波动,而不是完全一致

for _ in range(10):

print(model.predict(x_test[:1]))

dropout 层一直处于打开的状态,测试过程重复进行多次。

References

[1] Gal, Y., & Ghahramani, Z. (2015). Dropout as a Bayesian Approximation: Representing Model Uncertainty in Deep Learning. Retrieved from http://arxiv.org/abs/1506.02142
[2] Gal, Y., & Ghahramani, Z. (2015). Dropout as a Bayesian Approximation: Appendix. Retrieved from arxiv.org/abs/1506.0215

【实验笔记】深度学习中的两种不确定性(上)-- 张子杨
Dropout的前世与今生 -- 机器之心
Deep Bayesian Neural Networks. -- Stefano Cosentino




  

相关话题

  如果人类某一项科技的技术含量超过一个人一生时间所能掌握的数量,那这一类发展情况是否会一直处于停滞? 
  未来 10 年,智能机器人的发展趋势会是什么样的(主要面向家庭、娱乐、医疗方面)? 
  这些年,互联网科技怎样改变了贫困乡村的生活? 
  在计算资源有限的情况下,有什么深度学习的选题可以推荐/避免? 
  如何评价游戏公司用人脸识别防止未成年人沉迷和充值,效果和影响如何? 
  元宇宙和数字孪生的异同是什么? 
  在人工智能领域,当前中国与其他国家相比优势和不足分别在哪里? 
  电影《我,机器人》表达了什么?你从结尾看到了什么? 
  如何看待大疆因被美国列入了制裁名单而遭 Figma 冻结公司团队账户? 
  收音机会被完全淘汰掉吗? 

前一个讨论
为什么人会怕某些特殊声音?
下一个讨论
什么是时间晶体?





© 2024-11-05 - tinynew.org. All Rights Reserved.
© 2024-11-05 - tinynew.org. 保留所有权利