楼主写确实有点复杂,我写了一个可以实现同样的功能。/**
利用UrlConnection类连接从指定网站获取数据
@author Wang-draco
Date 2004-07-14
*/
import java.net.*;
import java.io.*;public class GetHtmlSource {public String getHTML(String address){
URLConnection conn = null;
URL url = null;
String ret = null;
try{
url = new URL(address);
System.out.println("url : " + url); conn = url.openConnection();
                  BufferedReader breader = new BufferedReader(new InputStreamReader(url.openStream()));
PrintWriter pw = new PrintWriter(new BufferedWriter(new FileWriter("c:\\htmlout.txt")));
String info = breader.readLine();
while((info  = breader.readLine()) != null){
pw.println(info);
ret += info;
}
breader.close();
pw.close();
}catch(IOException e){
e.printStackTrace();
System.exit(1);
}
return ret;
} public static void main(String args[]){
GetHtmlSource htmlsource = new GetHtmlSource();
System.out.println(htmlsource.getHTML("http://news.163.com"));
}
}如果你上网是通过代理的话上面的代码还需要再修改一下,若是直接连到Internet上则运行程序 java GetHtmlSource 它把http://news.163.com的主页内容都复制到C盘c:\\htmlout.txt文件中。