刚好我有一个自己写的一个抓网页的程序,
java WebGetter http://www.sina.com就可以抓网页了。import java.net.*;
import java.io.*;public class WebGetter {  public WebGetter()
  {
  }  public static void main(String[] args) throws Exception
  {
   System.out.print(new WebGetter().getWebPage(args[0]));
  }  public String getWebPage(String url) throws Exception
  {
    try
    { StringBuffer buf=new StringBuffer(10000);
      java.net.URL u=new URL(url);
      InputStream is=u.openStream();
      java.io.DataInputStream dis=new DataInputStream(is);
      int read_count=0;
      byte[] byte_buf=new byte[1024];      while(read_count>-1)
         {
          read_count = dis.read(byte_buf);
          if(read_count>0)
          buf.append(new String(byte_buf, 0, read_count));
        }      return buf.toString();
    }
    catch(Exception e) {throw e;}
  }
}

解决方案 »

  1.   

    我从网上找到的代码,很好用。
     
     public String getWebPageContent(String surl) {
        String currentLine = "";    String totalString = "";    InputStream urlStream = null;    try {
          URL url = new URL(surl);      HttpURLConnection hurlc = (HttpURLConnection) url.openConnection();      hurlc.connect();      urlStream = hurlc.getInputStream();      BufferedReader breader = new BufferedReader(new InputStreamReader(
              urlStream));      while ( (currentLine = breader.readLine()) != null) {
            totalString += currentLine;
          }    }
        catch (MalformedURLException ex) {
          System.err.println(ex.getMessage());
        }
        catch (IOException ex) {
          System.err.println(ex.getMessage());
        }    return totalString;
      }
      

  2.   

    readLine()是已经不建议使用deprecated的方法。