我对链接数据和rdflib都很陌生,而且我很丢失。 我正在尝试使用rdflib来创建一个持久性商店,其中包含了Sleepycat'加载DBLP数据库rdf文件,然后开始查询它。这就是我所做的:
import rdflib
graph = rdflib.Graph("Sleepycat")
graph.open("C:\Users\Maral\Desktop\Springer-DBLP\Mydblp", create=True)
graph.parse("C:\Users\Maral\Desktop\dblp.rdf", format = 'xml')
花了近2个小时,但现在似乎dblp.rdf已加载,解析并存储在Mydblp中。但len(图表)返回0,我不知道如何访问数据并查询它。
我错过了任何步骤吗?数据是否正确加载?所有的例子都是关于向图表添加三元组,但我只是想查询已存在的内容。
谢谢。
答案 0 :(得分:3)
这是一个工作示例,
from rdflib import ConjunctiveGraph, Namespace, Literal
from rdflib.store import NO_STORE, VALID_STORE
graph = ConjunctiveGraph('Sleepycat')
rt = graph.open("C:\Users\Maral\Desktop\Springer-DBLP\Mydblp", create=False)
if rt == NO_STORE:
# There is no underlying Sleepycat infrastructure, create it
graph.open(path, create=True)
else:
assert rt == VALID_STORE, 'The underlying store is corrupt'
print('Triples in graph before add: ', len(graph))
ontologies = rdflib.Graph()
ontologies.parse('C:\Users\Maral\Desktop\dblp.rdf',format='xml')
for onto in ontologies:
graph.add(onto)
print ('Triples in graph after add: ', len(graph))
print (graph.serialize(format='xml'))
# close when done, otherwise sleepycat will leak lock entries.
graph.close()
答案 1 :(得分:2)
前几天我遇到了完全相同的问题。经过相当多的实验,我能够在我的本地triplestore上运行SPARQL查询。 虽然这个问题是在一年前提出的,但我希望我的回答会帮助其他人。
这就是我所做的(跳过关于将三元组添加到三重商店的部分。):
from rdflib import ConjunctiveGraph, Namespace, Literal
import rdflib
from rdflib import plugin
path = './mytriplestore'
graph = ConjunctiveGraph('Sleepycat')
graph.open(path, create = False)
query = """SELECT *
WHERE {
?s ?p ?o.
}
Limit 10"""
qres = graph.query(query)
print qres
for row in qres:
print row