我想弄一个这样的网站功能,如http://www.ccua.com.cn/
请教这个站长,可惜他一点也不肯透漏
我暂时没有思路,可否有高手赐教一二?

解决方案 »

  1.   

    小偷程序 file_get_contents 或curl取得页面的内容 再正则分析想要的内容
      

  2.   

    通过curl采集内容          本来通过file_get_contents($url)实现采集的。无奈,出了个编码故障始终无法解决。最终选择curl实现。用curl需要将php下的libeay32.dll 和 ssleay32.dll 两个文件copy到 system32 下,然后,将php.ini中的extension = php_curl.dll开启。代码示例如下。
    function generateHtmlByCURL($url,$filename)
        {
        $ch = curl_init();
        $timeout = 1000; // set to 0 for no timeout
        curl_setopt ($ch, CURLOPT_URL,$url);
        curl_setopt ($ch, CURLOPT_RETURNTRANSFER, 1);
        curl_setopt ($ch, CURLOPT_TIMEOUT, $timeout);
        $handles = curl_exec($ch);
        curl_close($ch);
         file_put_contents ($filename, $handles);
       }
    附上一段copy过来的东西:curl是一个利用URL语法在命令行方式下工作的文件传输工具。curl是一个利用URL语法在命令行方式下工作的文件传输工具。它支持很多协议:FTP, FTPS, HTTP, HTTPS, GOPHER, TELNET, DICT, FILE 以及 LDAP。curl同样支持HTTPS认证,HTTP POST方法, HTTP PUT方法, FTP上传, kerberos认证, HTTP上传, 代理服务器, cookies, 用户名/密码认证, 下载文件断点续传, 上载文件断点续传, http代理服务器管道( proxy tunneling), 甚至它还支持IPv6, socks5代理服务器, 通过http代理服务器上传文件到FTP服务器等等,功能十分强大。