关于php获取网页里面的特定信息,一次有很多url 数据import ,然后再获取url内容里面的特定信息,思路要怎么弄,才能让程序运行快点,因为每一次import,都有上万个url ,然后用再用get_file_content 或 curl 或socket等等 去取里面的信息,然后再用正则表达式弄出来,这样真的很慢,有没有什么多线程,或者是其它的办法之类的方法?
调试欢乐多
每一次import,都有上万个url太恐怖了
用c++写个小工具来做吧
我以前做过一个定时处理的,20W URL,差不多40分钟处理完毕。
当然,网速一定要非常快,不然用什么方式都白搭