将网址输入后,将网页保存,并能将里面的图片保存
如果指定链接层数,则还要将该页面内所链接的网页也都保存起来
应该怎么做,要用些什么类?
下载图片及其他链接的时候,是不是要自己分析html?

解决方案 »

  1.   

    的分析html,用正则表达式吧,我个人认为不可能保存全部的网页尤其是大门户应该有开源的
      

  2.   

    有一些库好像比较容易实现
    我看有人介绍说libwww有这样的功能,但是太庞大,而且资料太少
    libcurl可以很容易实现保存html文件,但是里面的图片链接等好像也不容易实现
    难道非要自已分析html代码?
      

  3.   

    先得到并保存网页的html文件,然后分析这个文件,再得到图片,只能这么做吧,主要是图片不好处理,其他都没什么,估计得先得到图片的路径然后下载保存了