从url解析XML或在数据库中保存信息会更快吗?

时间:2013-07-16 07:02:58

标签: c# asp.net sql-server xml

我对使用asp.net(C#)和SQL server 2008(直到现在我使用的是php / mySQL)开发网站相对较新。我目前正面临一些选择,任何帮助我制作它们的建议都会非常感激:

我有一个在SQL Server Express(2008)下运行的数据库(我们称之为DB_A)。我无法修改它(但我可以使用它或进行复制(DB_C)。问题是这个数据库每天都在更新,所以是否可以定期更新副本?

此外,我必须通过解析Web中的XML文件来获取一些信息。 所以我想知道用C#直接解析它是否更快,只要对需要这些信息的页面有请求,或者更好/更快地定期(自动)解析它并将数据保存在SQL表中(在DB_C)? 但我不知道最后一种方法是否可行。

一个场景会像这样折叠:网站只连接到DB_A,其他所需的信息将通过解析XML(来自网址)直接获取。

有人对此有任何建议吗?

1 个答案:

答案 0 :(得分:1)

对于第一部分,复制数据库并同步更改:

我建议实施 复制 解决方案,将数据从主数据库复制到您的副本。

查看Microsoft文章here,了解可供选择的可用复制方案的一些信息。

对于第二部分,解析XML数据:

这取决于数据本身;如果数据非常大,需要大量处理,业务验证等等,并且不需要立即更新数据,确保您不必每次请求解析数据 只需运行一个定期解析器来处理发送给您的XML,这是您网站上的一个单独的工作,即:服务/批处理等......

否则(数据敏感),我认为你需要用每个请求解析它。

但这一切都取决于您的webapp的业务需求