当然可以了。我给你一个方法:
private static StreamReader getPage(string url)
{
StreamReader str=null;
int doNum=0;
bool isSuccess=false;
do
{
try
{
doNum++;
HttpWebRequest req=(HttpWebRequest)WebRequest.Create(url);
HttpWebResponse resp=(HttpWebResponse)req.GetResponse(); str=new StreamReader(resp.GetResponseStream(),System.Text.Encoding.UTF8);
isSuccess=true;
}
catch
{
isSuccess=false;
}
}
while(doNum<10&&!isSuccess);
if((doNum>=10||!isSuccess))
throw new Exception("不通: "+url);
return str;
}
上面根据新闻url,返回一个StreamReader,然后就可以处理返回的内容了

解决方案 »

  1.   

    是的。谢谢!现在可以将给定url的文件保存在本地来。对吗?
    但是像http://aston.blueidea.com/uploads/63/kissdemo.rar
    里面提到的那个程序却可以定位某个网站的所有的新闻,而不是给出某个新闻网页的url,就可以将这个网站的所有网页down到本地,而且还可以进行选择,过滤。这又是怎么做到的呢?