用于CNN超参数的贝叶斯优化的自定义损失函数

时间:2019-06-24 09:40:14

标签: python optimization bayesian loss

我有一个数据不平衡(1:17比率)的二进制分类问题。我正在尝试使用CNN进行分类。我想使用贝叶斯优化来优化学习率和卷积核数(滤波器深度)。我的指标得分非常疯狂,我的意思是,高灵敏度通常具有较低的准确性和特异性,反之亦然。

我知道对于f_min函数的损失,我可能只是具有负精度,但就我而言,这最终将具有非常高的精度和特异性,但灵敏度却非常低。您能建议我如何同时兼顾特异性和敏感性的损失函数吗?

我尝试了加权函数,但是我感觉没有得到最好的结果。 这是我的典型成绩示例。

| ACC | SEN | SPE | MCC | AUC |

| 0.85 | 0.17 | 0.89 | 0.05 | 0.53 |

| 0.76 | 0.40 | 0.79 | 0.10 | 0.59 |

| 0.73 | 0.45 | 0.75 | 0.10 | 0.60 |

| 0.90 | 0.07 | 0.95 | 0.03 | 0.51 |

| 0.68 | 0.53 | 0.69 | 0.11 | 0.61 |

我也不想陷入损失函数,该函数旨在在60年代获得所有3分并认为是最好的。

非常感谢任何建议。谢谢。

0 个答案:

没有答案