我正试图从reddit中抓取一个网址并每隔30分钟将其发布到我的博客上。这是我目前的解决方案:
我创建了一个名为' newpost.php'的php文件。从reddit的api中获取内容并将其发布到我的博客。 (每次加载页面时,它都会获取/发布最新的reddit帖子)。这是代码:
$json = file_get_contents("https://www.reddit.com/r/all/new.json?limit=1");
$obj = json_decode($json);
$url = $obj->data->children[0]->data->url;
// the rest posts this url to my blog
然后我创建了一个每30分钟运行一次代码的cron作业
wget --no-cache --spider http://mywebsite.com/blogposter/newpost.php
我的问题是,当cron作业第二次(1小时后)运行时,它会发布与第一次相同的URL。这只发生在cron作业中。每隔几分钟我在浏览器中手动刷新页面时,每次都会发布不同的URL。
我觉得有些东西正在缓存,但我不确定是什么。有什么建议吗?