我正在阅读模糊逻辑,我只是看不出它在大多数情况下如何改进机器学习算法(它似乎相对经常应用)。
以例如k个最近邻居为例。如果你有一堆像color: [red,blue,green,orange], temperature: [real number], shape: [round, square, triangle]
这样的属性,除了真正的编号属性外你不能真正模糊化这些属性(如果我错了请纠正我),我不知道这是怎么回事可以改善任何东西,而不是一起推销。
如何使用机器模糊逻辑来改善机器学习?大多数时候,您在大多数网站上找到的玩具示例似乎都不适用。
答案 0 :(得分:6)
当变量具有自然形状解释时,建议使用模糊逻辑。例如,[极少数,少数,许多,非常多]对值的重叠梯形解释有很好的解释。
颜色等变量可能不会。模糊变量表示成员资格,当它们变得有用时。
关于机器学习,它取决于您想要应用模糊逻辑的算法阶段。在我发现群集(使用传统的学习技术)确定每个群集的搜索空间中某个点的成员资格程度后,我会更好地应用它,但这不会改善每次观看的学习,但是学习。
答案 1 :(得分:0)
我不清楚你在给出的例子中想要完成什么(形状,颜色等)。模糊逻辑已成功用于机器学习,但我个人认为它在构建策略时可能更有用。我推荐你阅读我在2002年3月/ 4月发行的“PC AI”杂志上发表的一篇文章,而不是继续谈论它,希望能够明确这个想法:
答案 2 :(得分:0)
模糊成员资格允许您测量一些理想的特定对象的距离。使用此度量可以避免“不,它不是循环”(可能导致信息丢失)并使用给定对象(非)循环的度量。
答案 3 :(得分:0)
在我看来,模糊逻辑对任何事物都不是一种切实可行的方法,除非你正在建立一个目的构建模糊控制器或一些基于规则的结构,如合规/策略。虽然,模糊意味着处理0和1之间的所有事物。然而,当你接近需要在三维空间中应用模糊逻辑方面的更复杂的问题时,我发现它有点有缺陷。您仍然可以在不必查看模糊逻辑的情况下接近多变量。不幸的是,对于我研究过模糊逻辑的问题,我发现自己不同意大尺寸空间中模糊集中所采用的原则,这似乎是不可行的,不实用的,而且逻辑上不是很合理。您将在模糊集解决方案中应用的自然语言基础也将是非常特别的[非常,很少,很多]这就是您在应用程序中定义的所有内容。 很多,在机器学习方面,你会发现你甚至不必为你的模型建立自然语言基础。实际上,您会发现无需将模糊逻辑应用到模型的任何方面,您就可以获得更好的结果。
答案 4 :(得分:0)
通过强行添加模糊性来激怒你。如果而不是“形状”属性,你有一个“边数”属性,它将进一步划分为“less”,“medium”,“many”和“uncountable”< / em>的。在给定适当的隶属函数的情况下,广场可能是“较少”和“中等”的一部分。代替“color”属性,如果你有“红色”属性,那么使用RGB代码,就可以创建一个隶属函数。因此,我在数据挖掘方面的经验表明,每个方法都可以应用于每个数据集,哪些方法有效,有效。
答案 5 :(得分:0)
难道不能只将离散集转换为连续集并获得与模糊性相同的效果,同时能够使用概率论的所有技术吗?
例如尺寸['小','中','大'] ==&gt; [0,1]