基于Map Reduce

时间:2017-10-06 10:32:38

标签: hadoop mapreduce bigdata distributed-computing owl-api

我创建了一个很大的Ontology(.owl),现在我正处于推理步骤。事实上,问题是如何确保我的本体论的可扩展推理。我在文献中搜索过,我发现大数据可以成为一个适当的解决方案。不幸的是,我发现Map-reduce不能接受输入OWL文件。另外语义语言为SWRL,不能使用SPARQL。

我的问题是:

我应该和其他人一起更改owl文件吗?

如何使用Map-reduce以可接受的格式转换规则(例如SWRL)?

谢谢

1 个答案:

答案 0 :(得分:1)

“大数据可以是一个适当的解决方案”对于这个问题来说太简单了。

确保OWL本体的可扩展性是一个非常复杂的问题。涉及的主要变量是公理的数量和本体的表达性;然而,这些并不总是最重要的特征。很大程度上还取决于使用的api,对于apis,推理步骤与解析分开,使用哪个推理器。

SWRL规则增加了另一层次的复杂性,因为它们具有(几乎)任意复杂性 - 因此通常无法保证可扩展性。对于特定的本体和特定的规则集,可以提供更好的猜测。

转换为MapReduce格式/可能/帮助,但据我所知,没有标准转换,并且保证转换保留本体和规则蕴涵的语义会非常复杂。因此,任务相当于以允许您回答运行所需查询的方式重写数据,但这可能是不可能的,具体取决于具体的本体。

另一方面,这个本体的大小和分配给任务的内存量是多少?