功能参数校准通过机器学习

时间:2015-09-15 15:32:46

标签: optimization calibration hyperparameters

我有一个函数F,[bool] = F(DATASET,tresh1,tresh2), 接受输入DATASET和一些参数,例如2阈值-tresh1 e tresh2-,并返回布尔值:如果DATASET是“好”则返回1,否则返回0。答案当然取决于值tresh1 e tresh2。

假设我有100个DATASET可用,我知道哪些是好的,哪些不是。我想“训练”我的函数F,即教它几个值tresh1_和tresh2_,使得F(DATASET,tresh1_,tresh2_)为所有(或大多数)DATASET“good”和“false”返回“true” otherwize。

我期望F(DATASET_,tresh1_,tresh2_),其中DATASET_是一个新的(与之前的100不同),如果DATASET_真的“好”,则返回true。

我可以将这个问题视为一个聚类问题:对于训练集中的每个DATASET,我选择随机tresh1和tresh2并且我标记哪些值确保F返回正确的值而哪些不是。因此,我选择了tresh1和tresh2值为“good”的区域。 这是一个好方法吗?还有更好的吗?

一般来说,在我看来是“参数校准问题”。是否存在一些经典技术来解决它?

1 个答案:

答案 0 :(得分:0)

您想要做的通常称为

Hyperparameter optimization

有关详细信息,请参阅Wikipedia文章。常见的方法是执行网格搜索,除非您可以计算函数F的衍生

这是一种搜索方法;它通常用于机器学习以优化性能,但它本身并不是“机器学习”算法。