set_time_limit(0);可以防止超时.
$fp=@fopen($url,"r") or die("超时");//这个是文件打开操作
 $fcontents=file_get_contents($url);//这个是一次性读取内容
不知道这有啥联系!

解决方案 »

  1.   

    用两个 for 嵌套,例如:$countl=55;$countl_mod=$countl%10;for($i=0;$i<$countl/10;$i++)
    {
        for($j=0;$j<10;$j++)
        {
            echo "value=$j<br>";
        }
    }for($i=0;$i<$countl_mod;$i++)
    {
        echo "value=$i<br>";
    }这样可以保证当 $coultl 不能被10整除时,剩下的项目可以被循环到。
      

  2.   


    现在在做采集 set_time_limit(0);这个好像没什么用
    主要是下面循环的时候我还得读取 
    循环200次 读取200次 就容易超时了
      

  3.   

    比如说请求文章列表,有200条.
    哪你根据200条,分批次或者并发再向单个的文章页面讲求.dedecms吧,好像是叫这个的,它的采集就是这样的.可以同时有三个并发请求.同时还显示采集进度.
      

  4.   

    to jakey9826 
    我用的是帝国的 
    可是他后台自带的采集不能满足我的需求
    只有自己手动写了 呵呵