怎么样可以把网上的XML 文件抓取下来 .net上面有什么相关的类提供

解决方案 »

  1.   

    首先要获得你打开的页面,然后将XML文件的地址找出来,然后再请求哪个XML文件的地址,最后就是将请求的内容保存到本地。
      

  2.   

    我用system.net中的实现http的那几个写了一个抓取http页面的程序但是只能抓一点网站 抓www.sina.com.cn之类的就会出问题 程序停止响应 处理器占有率一直很高
      

  3.   

    String url = textBox1.Text;
    HttpWebResponse myHttpWebResponse; HttpWebRequest myHttpWebRequest = (HttpWebRequest)
    WebRequest.Create(url); myHttpWebRequest.KeepAlive = true;
    myHttpWebRequest.Timeout = 400000;
    myHttpWebRequest.Method = "get"; WebResponse myWebResponse = myHttpWebRequest.GetResponse(); myHttpWebResponse = (HttpWebResponse)myWebResponse; Stream myStream = myHttpWebResponse.GetResponseStream(); String text = "";
    int readl = 0;
    byte[] mybyte = new byte[1024];

    do
    { readl = myStream.Read(mybyte,0,1024);
    text += Encoding.UTF8.GetString(mybyte,0,1024);
    }while(readl > 0); textBox9.Text = text; myStream.Close();这个就是我的代码
      

  4.   

    如果抓那个什么http头等信息可以返回但是抓http文件就会出现问题
      

  5.   

    抓文件要将你读到的xml文件的内容通过stream 写到文件中啊。另外你在读一个页面时需要将xml文件的路径从读到的页面中匹配出来,然后,如果是相对地址,就要合成一个完整地址,如果是完整地址,就可以用Webrepuest 请求然后返回webresponse 的stream 来写到文件中或者直接用webclient将这个完整地址的xml 下载下来