用set_time_limit,设长点时间试试;
你也可试试,把内容取到,再存成一个文件,
再对本地存的文件再进行处理

解决方案 »

  1.   

    you needn't use loops to get the link page contents.
    you can first use regular expression to get the link url and put into it to db.when you want to use the data of these pages,use file_get_contents(),then you use the function just once.
      

  2.   

    如果能使用shell_exec的话,shell_exec( ' wget url -o file & ' );
    这样最快。
      

  3.   

    zeroleonhart(Strong Point:Algorithm) 读一条抓一条不行吗?再建立个表 分开执行 有些麻烦set_time_limit 时间太长了  设立的话要设个5分钟差不多