要下载整个网站是很难保证的,因为其实所谓的下载一个网站
现在的方法都是通过首页,然后遍历其中的所有连接,将每个连接对应的页面或者文件
下载了,然后继续递归下载这个页面所对应的连接这样并不能保证所有的文件都已经下载,只能够保证所有的连接都下载了,而且只是那种
明确的使用<a href=>所指向的连接,如果那个网站的那个下载连接只要稍微用了
JavaScript你就非常难以解决了
现在的方法都是通过首页,然后遍历其中的所有连接,将每个连接对应的页面或者文件
下载了,然后继续递归下载这个页面所对应的连接这样并不能保证所有的文件都已经下载,只能够保证所有的连接都下载了,而且只是那种
明确的使用<a href=>所指向的连接,如果那个网站的那个下载连接只要稍微用了
JavaScript你就非常难以解决了
解决方案 »
- java.lang.ClassCastException: weblogic.jdbc.common.internal.ConnectionEnv cannot
- jpetstore的问题
- java.lang.IllegalArgumentException
- ActionServlet,ActionMapping类,Action类 ,这三者的调用关系???
- ajax树形列表无法刷新
- ibaties 遇到的问题 求教
- 平衡负载下,tomcat的session问题如何解决?
- 很菜很菜的问题 - javabean怎么样连数据库啊?
- 哪位老大,可以醍醐灌顶的讲一下petstore中使用的关于event类,已经eventResponse类的细节,以及为什么要那样做。多谢了。
- 同样的操作,一个可以连接数据库,一个不可以?
- 关于jbulider7的问题!(给100分)
- 这种错误应该如何解决??????????
import java.net.*;
public class DownLoad{
URL url;
String objFile;
long nStartPos;
RandomAccessFile rf;
public DownLoad(String objFile,long nStartPos) throws IOException{
this.nStartPos=nStartPos;
this.objFile=objFile;
rf=new RandomAccessFile(objFile,"rw");
//
rf.seek(nStartPos);
}
public synchronized int write(byte[] b,int nStart,int len){
int n=-1;
try{
rf.write(b,nStart,len);
n=len;
}catch(IOException ioe){
ioe.printStackTrace();
}
return n;
}
public void close()throws IOException{
rf.close();
}
}多多指教:)
最好你们也写出一个类来,并说明、解释一下