使用OWL API推理本体

时间:2017-01-09 17:59:42

标签: java ontology owl-api reasoning

我使用OWL API 4.1.3来加载我的本体并不大。由于我需要使用推断信息,我还使用Hermit 1.3.8.413库进行推理。以下代码显示了我是如何完成它的。

public class ReasonRDF {

public static void main(String[] args) throws OWLOntologyCreationException, OWLOntologyStorageException {

    readRDF("C:/Users/workspace/Ontology_matching/NVDB_Matching_v18_H_4_1_CONVERTYING/results/NewInstantiated/owl/OSM1.owl");

}
public static void readRDF(String address) throws OWLOntologyCreationException, OWLOntologyStorageException{
    OWLOntologyManager manager =OWLManager.createOWLOntologyManager();
    File file = new File (address);
    OWLOntology ont = manager.loadOntologyFromOntologyDocument(IRI.create(file));
    System.out.println("Ontology Loaded...");

    System.out.println("Logical IRI   : " + ont.getOntologyID());
    System.out.println("Format        : " + manager.getOntologyFormat(ont));
    System.out.println("Runtime memory: " + Runtime.getRuntime().totalMemory());      
      ReasonerFactory reasonerFactory = new ReasonerFactory();
      ConsoleProgressMonitor progressMonitor = new ConsoleProgressMonitor();
      Configuration config = new Configuration();
      config.ignoreUnsupportedDatatypes=true;
      config.reasonerProgressMonitor= progressMonitor;
      OWLReasoner reasoner = reasonerFactory.createReasoner(ont, config);


      long t0 = System.nanoTime();

      System.out.println("Starting to add axiom generators");
      OWLDataFactory datafactory = manager.getOWLDataFactory();
      List<InferredAxiomGenerator<? extends OWLAxiom>> inferredAxioms = new ArrayList<InferredAxiomGenerator<? extends OWLAxiom>>();
      //inferredAxioms.add(new InferredSubClassAxiomGenerator());
      inferredAxioms.add(new InferredClassAssertionAxiomGenerator());
      //inferredAxioms.add(new InferredDataPropertyCharacteristicAxiomGenerator());
      //inferredAxioms.add(new InferredObjectPropertyCharacteristicAxiomGenerator());
      //inferredAxioms.add(new InferredEquivalentClassAxiomGenerator());
      //inferredAxioms.add(new InferredPropertyAssertionGenerator());
      //inferredAxioms.add(new InferredInverseObjectPropertiesAxiomGenerator());         
      inferredAxioms.add(new InferredSubDataPropertyAxiomGenerator());
      inferredAxioms.add(new InferredSubObjectPropertyAxiomGenerator());
      System.out.println("finished adding axiom generators");

//        List<InferredIndividualAxiomGenerator<? extends OWLIndividualAxiom>> individualAxioms= new ArrayList<InferredIndividualAxiomGenerator<? extends OWLIndividualAxiom>>();
//        inferredAxioms.addAll(individualAxioms);

    // for writing inferred axioms to the new ontology
    OWLOntology infOnt = manager.createOntology(IRI.create(ont.getOntologyID().getOntologyIRI().get()+"_inferred"));

      // use generator and reasoner to infer some axioms
      System.out.println("Starting to infer");
      InferredOntologyGenerator iog = new InferredOntologyGenerator(reasoner, inferredAxioms);
      //InferredOntologyGenerator iog = new InferredOntologyGenerator(reasoner);

      System.out.println("Inferrence is over");

      System.out.println("Storing the results");
      iog.fillOntology(datafactory,infOnt);
      System.out.println("Results are stored");
      long elapsed_time = System.nanoTime()-t0;
      System.out.println(elapsed_time);

      // save the ontology
      manager.saveOntology(infOnt, IRI.create("file:///C:/Users/ontologies/NVDB4_test.rdf"));
    }
}

它不会抛出任何错误,但需要将推断的本体存储在新文件中。事实上,即使在2天之后它也无法完成工作。我的IDE是eclipse EE,我已经提供了6到12 GB的内存来运行这个应用程序。 我发现我的代码或本体没有任何问题。

有人可以建议优化,甚至是更好的实施方式或其他api吗?

here是我的本体论,以防有人想要测试它。

1 个答案:

答案 0 :(得分:1)

本体的大小与推理的复杂性只有松散的关系 - 对于reasoners而言,一些小本体比其他非常大的本体更难。 (当然还有可能出现错误)。

您是否可以分享本体内容?

编辑:尝试过本体论后,看起来大小并不重要;事实证明,本体论很难理解。

我已经尝试禁用SWRL规则并跳过类断言生成,但仍遇到障碍。对象属性的数量和拓扑结构足以强调HermiT。

我已经尝试过版本1.3.8.500,以防OWLAPI中的任何问题可能已在更新版本中修复;我得到的唯一重要结果是代码没有运行内存绑定。分配给VM的3 GB RAM似乎绰绰有余。

与脱节相关的推理似乎需要花费大量时间 - 这并非出乎意料。考虑一下你是否可以从本体中删除不相交的公理,并仍能达到你的要求。

还要考虑通过划分ABox来区分个体是否有意义 - 如果有个人确定不相关,那么将多个本体中的断言分开可能是好的。大量不相关的人可能会导致推理者尝试推理永远无法提供有用推论的路径。