难到我要在数据库里存每一页的连接地址存150条在数据库里吗???
请问一下,有没有更好点的办法。我主要是要解决采集页数过多造成失败的问题(我想分小页量每一次采是最好的办法了)

解决方案 »

  1.   

    一样的。
    10页一页一采需10次请求。
    10页10页一采也需10次请求。能做到的就是请求一次尽量延时sleep()一下,避免请求太烦琐。
      

  2.   

    可以用跳转采集。跳转到每一页就把该页采集。。page=1.........page=150   这样可以避免程序死掉。
      

  3.   

    可以给一个小例子吗。
    我主要是不知道怎么处理页数问题 比如 要采150页。我就循环了150下,得到一个URL数组,然后……(如果我循环,那怎么来处理跳转呢???)我应该怎么做呢
      

  4.   

    SELECT * FROM table …… limit   开始位置 , 操作条数
    Select * from table limit ($Page- 1) * $PageSize, $PageSize 
    $Page  页数
    $PageSize  每页条数