AI:开放世界参考分辨率中的部分统一

时间:2013-06-13 14:59:12

标签: logic artificial-intelligence robotics unification uncertainty

当对描述对话表达语义的谓词执行参考分辨率时,我需要能够允许因在开放世界中工作而部分统一。

例如,请考虑以下情形:

你面前有一个蓝色的盒子。 我们使用ID 3来引用此蓝色框。

一组谓词box(x)^blue(x)可以轻松解析为您知道的蓝框。进行此查询将返回3

一组谓词ball(x)^yellow(x)无法解析为任何内容。这很好。

但现在考虑ball(x)^yellow(x)^box(y)^blue(y)^behind(x,y) 即蓝色框背后的黄色球。

我们不知道黄色的球,但我们知道一个蓝色的盒子!当然,有可能在已知的盒子后面没有球,并且正在谈论另一个盒子。但我们很确定我们知道正在谈论的是什么盒子。

我正在一个概率框架内工作,在这个框架中我计算每组约束满足命题集的概率;然后,参考解析过程返回最可能的一组/一组绑定。不幸的是,在考虑behind(x,y)时,我的系统会清除3绑定到y的概率,因为它不知道ID 3框后面的任何黄色球。

是否有办法部分统一谓词,以便系统确定语句的最可能解析是y/3 x/?,即y绑定为3且身份为x未知?

2 个答案:

答案 0 :(得分:1)

一个试探性的解决方案(如果有人想到更好的东西......请说出来!)

在解析句子时,解析器可能能够确定某些实体比其他实体更可能被接地。在这句话中,盒子比球更容易接地。在句子片段the brother of the king's gardener中,兄弟最不可能知道,园丁更有可能,而国王最有可能。

如果这些信息反映在语义中或与它们一起提供,它们可以通知启发式方法,面对未解决的引用表达式,可以尝试在提供的顺序中假设引用未知,直到引用成功解析为止。

答案 1 :(得分:0)

在我看来,问题不在于谓词的部分统一。这是统一的常规部分,因为我们统一变量而不是谓词,而谓词可能涉及多个变量,其中只有一些是统一的。

正如你所指出的,这个问题似乎更多地涉及开放世界,因为缺乏关于黄球的知识并不意味着没有。

除了我已经在你的另一个问题Constraint Satisfaction with Uncertainty

中提供的参考资料

对于这个特殊问题,你可能想看看这些专门讨论这些问题的论文:

David Poole,一阶概率推理: http://www.cs.ubc.ca/~poole/talks/ijcai-2011-tutorial/poole-liftedVE.pdf

de Salvo Braz et al,Lifted First-Order Probabilistic Inference http://reason.cs.uiuc.edu/eyal/papers/fopl-res-ijcai05.pdf