给一个网址,把这个网址目录下的站点全部下载到本地,就是把这个站点的完整目录及里面的文件全部下到本地;我用一个软件可以下载静态的网页站点,比如输一个网址,把这个网站的所有网页及文件下载到本地,而且是完整的目录结构,这样在本地也可以浏览这个网站;但现在要下载的是动态的网站站点,这个软件(WepReaper)实现不了,用PHP可以实现吗!有的话麻烦贴出来,多谢大家!

解决方案 »

  1.   

    cURL模拟浏览器登陆之后下载。
      

  2.   

    html文件你下载完了是吧,但是那些php文件你能下载到吗?
    如果都能下载那太可怕了。
      

  3.   

    正常情况不可能下载  php 文件那属于对方网站、服务器有重大漏洞
      

  4.   

    不管网站是动态还是静态,你下载下来的文件都是服务器最终发送到客户端的html或其他格式的静态文件(服务器上请求的是静态文件,则直接将静态文件发送,请求的是动态文件[要是web服务器可编译执行的动态文件],则是将动态页面执行完成后的结果[这个结果就是静态的了]发送到客户端)如果你要下载的就是静态的结果,那xunlei就可以了.
    写程序的话,则只有用curl或sockets来请求页面,象网络爬虫那样一个个的去分析并抓取页面
      

  5.   

    全是php动态地址,例如http://www.xxxx.com/index.php?cPath=139443_561,现在只想把这个页面及链接页面的子目录页面全部下到本地! 下载到本地的肯定不会再是php了,会转成html静态的页面,但具体的实现方法还是请教大家了!
      

  6.   

    可以看一些开源的php系统呀...类似hdwiki,discuz!之类的
    ................
      

  7.   

    写采集程序可以获得数据 存到MYSQL 然后编写对应的PHP文件调用 如果想下PHP源码 我看没这个可能吧
      

  8.   

    你想把人家的php从服务器上下下来,除了你攻入人家的服务器,其他没办法了吧!
      

  9.   

    问题再重述一次,例如给一个动态的地址,要把这个页面的 "每个链接子目录及文件下到本地",保持完整的目录结构,不是只是这一个页面,而是要把每个链接的子页面也要下载本地!用PHP实现!再复杂点就是再从每个子链接再去深入查找子子链接,把子子链接下到本地!
      

  10.   

    如果楼主不是指获取服务器上的php源文件,而是抓取网址的话,那就直接抓取:如:<?php
    //zhuaqu.php$url = 'http://www.weather.com.cn/data/sk/101010100.html';
    $lines_array = file($url); 
    $lines_string = implode('', $lines_array); 
    eregi("(.*)", $lines_string, $head); 
    echo $head[0]; 
    ?>把页面的所有内容都抓下来,然后用正则也好,分析里面所有的href链接,再去抓这些链接指向的内容,即第一层网页的下一级链接。  如果人家的链接是用js处理的,那我就不知道了。