set_time_limit(0);可以防止超时.
$fp=@fopen($url,"r") or die("超时");//这个是文件打开操作
$fcontents=file_get_contents($url);//这个是一次性读取内容
不知道这有啥联系!
$fp=@fopen($url,"r") or die("超时");//这个是文件打开操作
$fcontents=file_get_contents($url);//这个是一次性读取内容
不知道这有啥联系!
{
for($j=0;$j<10;$j++)
{
echo "value=$j<br>";
}
}for($i=0;$i<$countl_mod;$i++)
{
echo "value=$i<br>";
}这样可以保证当 $coultl 不能被10整除时,剩下的项目可以被循环到。
现在在做采集 set_time_limit(0);这个好像没什么用
主要是下面循环的时候我还得读取
循环200次 读取200次 就容易超时了
哪你根据200条,分批次或者并发再向单个的文章页面讲求.dedecms吧,好像是叫这个的,它的采集就是这样的.可以同时有三个并发请求.同时还显示采集进度.
我用的是帝国的
可是他后台自带的采集不能满足我的需求
只有自己手动写了 呵呵