如何使用PHP Curl解析xml站点地图并单独加载每个URL

时间:2011-05-12 11:24:37

标签: php curl simplexml

我正在尝试编写一个脚本来读取远程sitemap.xml并解析其中的url,然后依次加载每个脚本以预先缓存它们以便更快地浏览。

背后的原因:我们正在开发的系统在运行时将DITA XML写入浏览器,并且第一次加载页面时,等待时间可能在8-10秒之间。之后的后续加载可能只需1秒。显然,对于更好的用户体验,预先缓存的页面是一个奖励。

每次我们在此服务器上准备新发布或执行任何测试/修补时,我们都必须清除缓存,以便编写一个脚本来解析站点地图并加载每个URL。

在做了一些阅读后,我认为最好的路线是使用PHP&卷曲。这是不是一个好主意我不知道。我对Perl更熟悉,但目前系统上既没有安装PHP也没有Perl,所以我认为在PHP池中浸泡脚趾可能会很好。

到目前为止,我抓住了“teh internets”的代码读取了sitemap.xml并将其写入我们服务器上的xml文件并在浏览器中显示。据我所知,这只是一次性转储整个文件?

<?php
$ver = "Sitemap Parser version 0.2";
echo "<p><strong>". $ver . "</strong></p>";


$ch = curl_init();
curl_setopt($ch, CURLOPT_URL, 'http://ourdomain.com/sitemap.xml;jsessionid=1j1agloz5ke7l?id=1j1agloz5ke7l');
curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);
$xml = curl_exec ($ch);
curl_close ($ch);
if (@simplexml_load_string($xml)) {
    $fp = fopen('feed.xml', 'w');
    fwrite($fp, $xml);
    echo $xml;
    fclose($fp);
}
?>

不是将整个文档转储到文件或屏幕中,而是最好遍历xml结构并抓住我需要的URL。

xml采用以下格式:

<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance" xsi:schemaLocation="http://www.sitemaps.org/schemas/sitemap/0.9&#x9;http://www.sitemaps.org/schemas/sitemap/0.9/sitemap.xsd">
    <url>
        <loc>http://ourdomain.com:80/content/en/FAMILY-201103311115/Family_FLJONLINE_FLJ_2009_07_4</loc>
        <lastmod>2011-03-31T11:25:01.984+01:00</lastmod>
        <changefreq>monthly</changefreq>
        <priority>1.0</priority>
    </url>
    <url>
        <loc>http://ourdomain.com:80/content/en/FAMILY-201103311115/Family_FLJONLINE_FLJ_2009_07_9</loc>
        <lastmod>2011-03-31T11:25:04.734+01:00</lastmod>
        <changefreq>monthly</changefreq>
        <priority>1.0</priority>
    </url>

我尝试过使用SimpleXML:

curl_setopt($ch, CURLOPT_URL, 'http://onlineservices.letterpart.com/sitemap.xml;jsessionid=1j1agloz5ke7l?id=1j1agloz5ke7l');
curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1);
$data = curl_exec ($ch);
curl_close ($ch);

$xml = new SimpleXMLElement($data);
$url = $xml->url->loc;
echo $url;

这打印了屏幕上的第一个网址,这是个好消息!

http://ourdomain.com:80/content/en/FAMILY-201103311115/Family_FLJONLINE_FLJ_2009_07_4

我的下一步是尝试阅读文档中的所有位置,所以我尝试了:

foreach ($xml->url) {
    $url = $xml->url->loc;
    echo $url;
}

希望这会抓住网址中的每个位置,但它什么也没产生,而且我在这里被困住了。

请有人指导我抓住多个父母的孩子然后加载此页面的最佳方式并缓存它我假设是一个简单的GET?

我希望我提供了足够的信息。如果我遗漏了任何东西(除了实际编写PHP的能力之外。请说 - - )

感谢。

3 个答案:

答案 0 :(得分:11)

您似乎没有任何价值来保存foreach的结果:

foreach ($xml->url as $url_list) {
    $url = $url_list->loc;
    echo $url;
}

答案 1 :(得分:3)

你不需要使用curl,使用simplexml_load_file($sitemap_URL) ...或者使用带有stream_context_create()的file_get_contents()的simplexml_load_string(),用于比GET更复杂的东西。

......不需要DOM遍历。

使用一行解析为数组!

作为http://www.sitemaps.org/protocol.html XML描述,它是一个具有良好数组表示的简单树。

您可以使用json XML reader

$array = json_decode(json_encode(simplexml_load_file($sitemap_URL) ), TRUE);

所以请使用eg。 foreach($array['image:image'] as $r)遍历它(按var_dump($array)检查)...另请参阅oop5.iterations

PS:你也可以在simplexml上通过XPath选择上一个节点。

答案 2 :(得分:1)

您也可以使用PHP Simple Large XML Parser(http://www.phpclasses.org/package/5667-PHP-Parse-XML-documents-and-return-arrays-of-elements.html),主要是在sitemap的大小太大的情况下。