候选消除算法讲座示例

时间:2017-12-29 05:44:31

标签: algorithm machine-learning artificial-intelligence candidate

我正在浏览一些讲座幻灯片,并且无法理解为什么最后G的大胆假设被丢弃了,我可以得到相同的答案,但不明白为什么它们被丢弃了。

   sky           temperature         humidity
 |     |        |          |        |       |
Sunny  Rainy      Warm       Coo     Normal   Low

以及一组积极和消极的训练样例:

    1.      ( S W N )+)
    2.      ( R C L )-)
    3 .     ( S C N )+)
    4.      ( S W L )-)

使用第一个例子进行训练:(S W N)+)概括......

G = [(???)] S = [(S W N)]

使用第二个例子进行训练:(R C L) - )专门化......

G = [(S≤α)(ΔW≤)(Δ≤N)
S = [(S W N)]

使用第三个例子进行训练:(S C N)+)概括......

G = [(S??)(??N)] (另一个被丢弃)
S = [(S?N)]

使用第四个例子进行训练:(S W L) - )专攻......

G = [(SC?)(S?N)(R?N)(?CN)] (粗体被丢弃)
S = [(S?N)]

融合,学到的概念必须是:[(S?N)]

1 个答案:

答案 0 :(得分:0)

enter image description here

  

G = [( SC?)(S?N)( R?N )(?CN )](粗体被丢弃)

可以简单地使用候选消除算法。据此可以归纳为以下原因。

  1. 不一致的假设:根据算法,我们必须首先删除与目标数据不一致的假设(D)

    在这种情况下( R?N )被删除,这与(S?N)

  2. 不符
  3. 特定边界比常规边界更通用。

    如果特定边界变得比一般边界更具体。边界可能重叠。

    如果我们将派生的( S C?)与(S?N)进行比较,则可以将中间c与? (S?N)。与特定边界相比,具有常数的派生常数使其更特定。因此,应将其删除。 (?C N )也是如此。

我看到这个问题有点老了,但我希望有人会觉得这个有用。