今天好,我要问我的兄弟“抓取工具申请” 其中需要包含以下部分:
将结果保存在数据库中
前端将获得任何给定网站的所有链接,并被编入索引 在彼此之下
如果该搜寻器的结果过长,请移至下一页。 计算网址中的最后一个数字,然后再次获得链接 如
首先获取URL中带有«&id =»的链接,然后再获取另一个
到目前为止,这是我的代码:
<?php
function crawl_page($url, $depth = 5)
{
if (!isset($url) || $depth == 0) {
return;
}
$dom = new DOMDocument('1.0');
@$dom->loadHTMLFile($url);
$anchors = $dom->getElementsByTagName('a');
foreach ($anchors as $element) {
$href = $element->getAttribute('href');
if (0 !== strpos($href, 'http')) {
$path = '/' . ltrim($href, '/');
if (extension_loaded('http')) {
$href = http_build_url($url, array('path' => $path));
} else {
$parts = parse_url($url);
$href = $parts['scheme'] . '://';
if (isset($parts['user']) && isset($parts['pass'])) {
$href .= $parts['user'] . ':' . $parts['pass'] . '@';
}
$href .= $parts['host'];
if (isset($parts['port'])) {
$href .= ':' . $parts['port'];
}
$href .= dirname($parts['path'], 1).$path;
}
}
crawl_page($href, $depth - 1);
}
echo "URL:".$url."<br />";
}
crawl_page("http://www.pizza.com/", 2);