为了解析互联网上的大文件,或者只想获取网站的opengraph标签,有没有办法获取网页的前1000个字符,然后停止从页面下载任何其他内容?
当文件为几兆字节时,可能需要服务器一段时间来解析文件。使用许多这些文件时尤其如此。比带宽更麻烦的是CPU / RAM条件,因为太大的文件很难在PHP中使用,因为服务器可能会耗尽内存。
以下是一些可以打开网页的PHP命令:
的fopen
的file_get_contents
包括
的fread
url_get_contents
curl_init
curl_setopt
- 醇>
parse_url
可以将其中任何一个设置为下载特定数量的字符,然后退出吗?
答案 0 :(得分:0)
那样的东西?
<?php
if ($handle = fopen("http://www.example.com/", "rb")) {
echo fread($handle, 8192);
}
来自php.net官方函数doc examples ...