如何在没有CURL的情况下获取网页内容?

时间:2010-05-31 20:40:25

标签: php curl stream

我需要获取网页的内容,我不能使用Curl,因为它没有启用。我尝试了下面的代码但它没有用。

$opts = array(
  'http'=>array(
    'method'=>"GET",
    'header'=>"Accept-language: en\r\n" .
              "Cookie: foo=bar\r\n"
  )
);

$context = stream_context_create($opts);   

$fp = fopen($_GET['url'], 'r', false, $context);
if($fp)
fpassthru($fp);
fclose($fp);
exit;

代码产生错误

Warning: fopen(http://www.google.com/search?&q=site:www.myspace.com+-intitle:MySpaceTV+%22Todd Terje%22) [function.fopen]: failed to open stream: HTTP request failed! HTTP/1.0 400 Bad Request 

6 个答案:

答案 0 :(得分:5)

您可以使用老式代码,例如:

$CRLF = "\r\n";
$hostname = "www.something.com";

$headers[] = "GET ".$_GET['url']." HTTP/1.1";
$headers[] = "Host: ".$hostname;
$headers[] = "Accept-language: en";
$headers[] = "Cookie: foo=bar";
$headers[] = "";

$remote = fsockopen($hostname, 80, $errno, $errstr, 5);
// a pinch of error handling here

fwrite($remote, implode($CRLF, $headers).$CRLF);

$response = '';

while ( ! feof($remote))
{
    // Get 1K from buffer
    $response .= fread($remote, 1024);
}

fclose($remote);

更新:此解决方案的好处在于它不依赖于fopen包装器。

答案 1 :(得分:4)

您是否注意到Todd和Terje之间的网址中有一个ACTUAL空间?这可能会导致您的问题,因为浏览器通常将其编码为+%20

答案 2 :(得分:3)

您可以使用 file_get_contents 功能:

$content = file_get_contents('url/filepath here');
echo $content;

注意:如果您想阅读安全协议,例如https,请确保您已从php.ini启用了 openssl 扩展程序。

<强>更新

根据您的说法,我怀疑您已从php.ini文件中关闭allow_url_fopen设置,您需要将其打开以便能够从网址读取。

更新2:

看起来你没有指定正确的网址,我刚检查过,例如,如果你只是放入www.google.com,它就可以了:

$url = 'http://www.google.com';
$content = file_get_contents($url);
echo $content;

答案 3 :(得分:1)

您实际上可以在file_get_contents中指定网址而不是文件名。

答案 4 :(得分:0)

使用类似WireShark的嗅探器来获取实际浏览器请求的内容。然后将其复制并逐个删除,很快就会获得最少的标题。

答案 5 :(得分:-2)

 php file_get_contents() function

nadeausoftware.com/articles/2007/07/php_tip_how_get_web_page_using_fopen_wrappers

   /**
 * Get a web file (HTML, XHTML, XML, image, etc.) from a URL.  Return an
 * array containing the HTTP server response header fields and content.
 */
function get_web_page( $url )
{
    $options = array(
        CURLOPT_RETURNTRANSFER => true,     // return web page
        CURLOPT_HEADER         => false,    // don't return headers
        CURLOPT_FOLLOWLOCATION => true,     // follow redirects
        CURLOPT_ENCODING       => "",       // handle all encodings
        CURLOPT_USERAGENT      => "spider", // who am i
        CURLOPT_AUTOREFERER    => true,     // set referer on redirect
        CURLOPT_CONNECTTIMEOUT => 120,      // timeout on connect
        CURLOPT_TIMEOUT        => 120,      // timeout on response
        CURLOPT_MAXREDIRS      => 10,       // stop after 10 redirects
    );

    $ch      = curl_init( $url );
    curl_setopt_array( $ch, $options );
    $content = curl_exec( $ch );
    $err     = curl_errno( $ch );
    $errmsg  = curl_error( $ch );
    $header  = curl_getinfo( $ch );
    curl_close( $ch );

    $header['errno']   = $err;
    $header['errmsg']  = $errmsg;
    $header['content'] = $content;
    return $header;
}

thx:http://nadeausoftware.com/articles/2007/06/php_tip_how_get_web_page_using_curl