我做过一个类似的,呵呵,就是从网站里的某一页开始,先下载这一页的内容,然后分析页面里的连接,对每个连接目标做同样的操作。
我那时候是把页面内容全读成一个String然后自己分析的,后来发现java带有html的parse功能,好象是JTextPane类的方法,用这个应该更简单了。
jx、css和普通html页面的方法是一样的,分析出它们的地址就可以下载了。

解决方案 »

  1.   

    原理比较简单:
    URL u=new URL("http://202.115.167.115/user/login.5dc");
    URLConnection connection=u.openConnection();
    connection.setDoOutput(true);
    conneciton的getOutputStream()和getInputStream()方法可以获得输出和输入你想做一个下载网站所有连接到的html文件的东西?我觉得难点在于对于网站整个结构的获得和分析,这个我没有办法,各种连接,post/get请求都有,单个做都很简单,什么都有就很麻烦了,怎么判断勒?