我需要获取网页的内容,我不能使用Curl,因为它没有启用。我尝试了下面的代码但它没有用。
$opts = array(
'http'=>array(
'method'=>"GET",
'header'=>"Accept-language: en\r\n" .
"Cookie: foo=bar\r\n"
)
);
$context = stream_context_create($opts);
$fp = fopen($_GET['url'], 'r', false, $context);
if($fp)
fpassthru($fp);
fclose($fp);
exit;
代码产生错误
Warning: fopen(http://www.google.com/search?&q=site:www.myspace.com+-intitle:MySpaceTV+%22Todd Terje%22) [function.fopen]: failed to open stream: HTTP request failed! HTTP/1.0 400 Bad Request
答案 0 :(得分:5)
您可以使用老式代码,例如:
$CRLF = "\r\n";
$hostname = "www.something.com";
$headers[] = "GET ".$_GET['url']." HTTP/1.1";
$headers[] = "Host: ".$hostname;
$headers[] = "Accept-language: en";
$headers[] = "Cookie: foo=bar";
$headers[] = "";
$remote = fsockopen($hostname, 80, $errno, $errstr, 5);
// a pinch of error handling here
fwrite($remote, implode($CRLF, $headers).$CRLF);
$response = '';
while ( ! feof($remote))
{
// Get 1K from buffer
$response .= fread($remote, 1024);
}
fclose($remote);
更新:此解决方案的好处在于它不依赖于fopen包装器。
答案 1 :(得分:4)
您是否注意到Todd和Terje之间的网址中有一个ACTUAL空间?这可能会导致您的问题,因为浏览器通常将其编码为+
或%20
。
答案 2 :(得分:3)
您可以使用 file_get_contents
功能:
$content = file_get_contents('url/filepath here');
echo $content;
注意:如果您想阅读安全协议,例如https,请确保您已从php.ini启用了 openssl 扩展程序。
<强>更新强>
根据您的说法,我怀疑您已从php.ini文件中关闭allow_url_fopen
设置,您需要将其打开以便能够从网址读取。
更新2:
看起来你没有指定正确的网址,我刚检查过,例如,如果你只是放入www.google.com
,它就可以了:
$url = 'http://www.google.com';
$content = file_get_contents($url);
echo $content;
答案 3 :(得分:1)
您实际上可以在file_get_contents中指定网址而不是文件名。
答案 4 :(得分:0)
使用类似WireShark的嗅探器来获取实际浏览器请求的内容。然后将其复制并逐个删除,很快就会获得最少的标题。
答案 5 :(得分:-2)
php file_get_contents() function
nadeausoftware.com/articles/2007/07/php_tip_how_get_web_page_using_fopen_wrappers
/**
* Get a web file (HTML, XHTML, XML, image, etc.) from a URL. Return an
* array containing the HTTP server response header fields and content.
*/
function get_web_page( $url )
{
$options = array(
CURLOPT_RETURNTRANSFER => true, // return web page
CURLOPT_HEADER => false, // don't return headers
CURLOPT_FOLLOWLOCATION => true, // follow redirects
CURLOPT_ENCODING => "", // handle all encodings
CURLOPT_USERAGENT => "spider", // who am i
CURLOPT_AUTOREFERER => true, // set referer on redirect
CURLOPT_CONNECTTIMEOUT => 120, // timeout on connect
CURLOPT_TIMEOUT => 120, // timeout on response
CURLOPT_MAXREDIRS => 10, // stop after 10 redirects
);
$ch = curl_init( $url );
curl_setopt_array( $ch, $options );
$content = curl_exec( $ch );
$err = curl_errno( $ch );
$errmsg = curl_error( $ch );
$header = curl_getinfo( $ch );
curl_close( $ch );
$header['errno'] = $err;
$header['errmsg'] = $errmsg;
$header['content'] = $content;
return $header;
}
thx:http://nadeausoftware.com/articles/2007/06/php_tip_how_get_web_page_using_curl