我正在使用PHP,Codeigniter和Google Books(在WIndows 7 XAMPP localhost环境中)创建一个简单的Web应用程序。
我有一个MySQL书籍列表(几百个)和相应的ISBN号码。当用户第一次查看图书/访问网址时,会对Google图书进行API调用,并且书籍的作者和说明会保存到我的数据库中。
理想情况下,我想自己填充数据库,而不是依赖用户。所以,我正在考虑手动访问每个URL。但是有很多项目!
是否有可用于此类任务的脚本?我希望在24小时内每5分钟运行一次脚本。
我的网址格式如下:
/items/itemView/1 // <-- book 1
/items/itemView/2 // <-- book 2
/items/itemView/3 // <-- book 3
// etc
// etc
由于
答案 0 :(得分:1)
简答:
存在存储API,因此您无需编目。
长答案:
听起来你要做的就是拿API并浏览每一个条目并记录它们用于你自己的目的。
虽然这通常可以相当简单地完成,而不是告诉你如何做到这一点,我会告诉你为什么你不应该。
存在一个庞大的数据库的API,因此你不必全部存储它,因为所需的资源可能非常庞大,通常比大多数爱好者都要多。
最好像现在一样拥有它,在再次访问的机会中缓存访问的内容,并定期确保您保留的任何记录,与其来源进行比较,以便您没有 - 最新记录(本地缓存的另一个陷阱)。
我希望这有助于至少向您展示为什么人们不会复制大型数据源。