Deep Learning: Dropout regularization
深度学习中的丢弃法
Last updated on
动机
一个好的模型需要对输入数据的扰动鲁棒,丢弃法实质:在层之间加入噪音。
细节
目标是要无偏差:,对于 加入噪音得到的 。
使用
通常用在隐藏全连接层的输出上,且只在训练中使用,预测时不使用正则项。 在 MLP 中用的比较多,在 CNN 等模型中用得少。 丢弃的概率 是控制模型复杂度的超参数,通常取值:0.5, 0.7, 0.9。
深度学习中的丢弃法
一个好的模型需要对输入数据的扰动鲁棒,丢弃法实质:在层之间加入噪音。
目标是要无偏差:,对于 加入噪音得到的 。
通常用在隐藏全连接层的输出上,且只在训练中使用,预测时不使用正则项。 在 MLP 中用的比较多,在 CNN 等模型中用得少。 丢弃的概率 是控制模型复杂度的超参数,通常取值:0.5, 0.7, 0.9。