关于php获取网页里面的特定信息,一次有很多url 数据import ,然后再获取url内容里面的特定信息,思路要怎么弄,才能让程序运行快点,因为每一次import,都有上万个url ,然后用再用get_file_content 或 curl 或socket等等 去取里面的信息,然后再用正则表达式弄出来,这样真的很慢,有没有什么多线程,或者是其它的办法之类的方法?

解决方案 »

  1.   

    没什么好方法,就算是多线程也没你理想的快。几万个url,你开什么玩笑,呵呵。
      

  2.   

    一次有很多url 数据import
    每一次import,都有上万个url太恐怖了
    用c++写个小工具来做吧
      

  3.   

    用python做吧,开100线程,1W不算量大,
    我以前做过一个定时处理的,20W URL,差不多40分钟处理完毕。
    当然,网速一定要非常快,不然用什么方式都白搭
      

  4.   

    对啊,一个文件多真的很多url,老板又要我把程序改快点,我又不知道怎么去改,只是很郁闷啊不会吧,c++都忘光,而且也没时间去学习了