function get_link($url,$link_url){  //检查$link_url在网站$url中是不是正常
$content=mb_convert_encoding(file_get_contents($url),'utf-8','gb2312');
$p_list="/".str_replace('http://','',$link_url)."/";
preg_match($p_list,$content,$result);
if($result[0]){echo '<font color="blue">正常</font>';}else{echo '<font color="red">不正常</font>';}
}
因为在首页中要用一下这函数,加上这函数变的特别慢,不知道怎么优化一下会好点。

解决方案 »

  1.   

    就一个url,直接用字符串查找函数会快吧。本人打饭的。
      

  2.   

    每次运行函数都要file_get_contents抓取一下url   估计就慢在这个地方定时抓url写个文件缓存起来,以后读文件的行了
      

  3.   

    用Curl..返回 200就是正常了
      

  4.   

    慢是因为 file_get_contents
    所以将取文件内容换成获取头信息就速度快了get_headers()返回的信息一样是判断200 和 404例子:
    $array=get_headers('http://草眉论坛/');
    print_R($array);
      

  5.   

    他程序是去到html中找有没有给的那个URl所以还要把html页面抓回来
    还是用curl吧,感觉能快点,或者像3楼那样,定时抓取,然后存起来
      

  6.   


    如果是要抓内容,那就无解了,换硬件 换宽带.或者写桌面程序 多线程
    curl是不错,但我想应该不会有太多差别.