Find-S / Candidate Elimination算法的最小培训示例数量?

时间:2010-05-02 23:26:31

标签: search artificial-intelligence machine-learning

考虑由x,y平面中的整数点组成的实例空间,其中0≤x,y≤10,以及由矩形组成的假设集(即形式为(a≤x≤b,c≤ y≤d),其中0≤a,b,c,d≤10)。

需要提供的最小训练样例数是多少,以便Find-S算法能够完美地学习特定目标概念(例如(2≤x≤4,6≤y≤9))? 我们什么时候可以说在Find-S算法的情况下确切地学习了目标概念,什么是最优查询策略?

我也想知道候选人消除的答案。

提前致谢。

2 个答案:

答案 0 :(得分:2)

你需要两个正面的例子:(2,6) (2< = x< = 2,6 =< =< = 6) 然后(4,9) (2< = x< = 4,6< = y< = 9) 这就是S完成,这是FIND-S教学/学习答案的结束

随着候选消除,我们需要给出负面的例子来构建G集。 我们需要四个负面例子来定义矩形的四个边界:

  • G起始为(-Inf< = x< = Inf,-Inf< = y< = Inf)

添加(3,5) - 我们得到假设:

  • ( - Inf< = x< = Inf,6< = y< = Inf)

添加(3,10) -

  • ( - Inf< = x< = Inf,6< = y< = 9)

添加(1,7) -

  • (2< = x< = Inf,6< = y< = 9)

添加(5,7) -

  • (2< = x< = 4,6< = y< = 9)

所以现在S = G = {(2 <= x <= 4,6 <= y <= 9)}。由于S = G,它完全学会了这个概念。 我以不同的格式看过这个问题。如果指定问题域,则将-Inf替换为0,将Inf替换为10.

这是参加培训示例的最佳顺序。最糟糕的顺序是首先进行G设置,因为您将创建四个不同的候选假设,它们将与第二个示例合并为三个,然后与第三个示例合并为一个。用Mitchell书中的树来说明C-E是很有用的,也许可以勾画每个旁边的假设图。

这个答案在这里得到证实: http://ssdi.di.fct.unl.pt/scl/docs/exercises/Clemens%20Dubslaff%20hm4.pdf

答案 1 :(得分:0)

假设所有范围均为a ≤ x ≤ bab为整数,那么......

在一维情况下(只有x),会有4个样本,(a-1,a,b,b + 1)可以证明它。

如果将其扩展到2维(x和y),它应该是16个样本,这些样本高于x,而(c-1,c,d,d + 1)对于y,具有所有可能的组合。

如果我不明白这个问题,请纠正我。