<a target="_blank" title="杯具的人生" style="" href="http://www.ifeng.cn/u/20100227/16/9e9d906c-19d3-4006-8115-a31023a3ad4e.html">真的是民工荒啊,导致工厂招不到人</a>
                            
                            
                            
                        </td>
                        <td>
                            20
                        </td>
                        <td>
                            <a target="_blank" href="http://www.ifeng.cn/pingyou">
                                pingyou
                            </a>
                            <br>
                            <span class="gray">02-27 16:32</span>
                        </td>
                        <td>
                            0
                        </td>
以上内容,重复许多次,求能抓取,红色标出为零时的URL,在本例中为 http://www.sina.cn/u/20100227/16/9e9d906c-19d3-4006-8115-a31023a3ad4e.html在此先谢过,不能发200分的帖子,但会加分.. ..

解决方案 »

  1.   

    http://www.ifeng.cn/u/20100227/16/9e9d906c-19d3-4006-8115-a31023a3ad4e.html
      

  2.   

    不好意思,随便写的URL,弄错了,是
    http://www.ifeng.cn/u/20100227/16/9e9d906c-19d3-4006-8115-a31023a3ad4e.html
      

  3.   

    http://www.ifeng.cn/u/20100227/16/9e9d906c-19d3-4006-8115-a31023a3ad4e.html
    地址还是看不到
    ----------------
    得到                     <td> 
                              0 
                            </td> 
    这个红色”0“ 值的url吗?     这个地址来自与外网?
    非要用正则吗?  用js 不是挺好的吗?
            元宵节 节日快乐
      

  4.   

    不是web页面,是本地程序,要用正则~
      

  5.   

    Firefox 无法在 http://www.sina.cn/u/20100227/16/9e9d906c-19d3-4006-8115-a31023a3ad4e.html 找到该文件。
      

  6.   

    为什么是第一个url,不是第二个http://www.ifeng.cn/pingyou,你要说出规律或规则才行,否则就只能是通过猜的,那或许符合你这个例子,但不一定满足所有需求Regex reg = new Regex(@"(?is)<a.*?href=""(?<url>[^""]*)""[^>]*>.*?</td>(\s*<td>.*?</td>){2}\s*<td>\s*\b0\b");
    MatchCollection mc = reg.Matches(yourStr);
    foreach(Match m in mc)
    {
        richTextBox2.Text += m.Groups["url"].Value + "\n";
    }
      

  7.   

    哇哦,正则达人出现了,膜拜下~
    您的我试了,不行,好吧,我坦白,真正的链接其实是 http://forum.csdn.net/SList/FreeZone// 这个
    我想要抓取0回复帖子的URL,请您帮下我吧~
      

  8.   

    这个正则不是不可以做到,只不过在处理这类问题上,效率并不高罢了CSDN是提供了RSS的,可以通过RSS解析,这样效率更高
      

  9.   

    诗淫在做回贴工具??给你一个!http://forum.csdn.net/Rss/FreeZone/RobPointList/http://forum.csdn.net/Rss/FreeZone解析一下这两个xml就行了!
      

  10.   

    http://forum.csdn.net/OpenApi/forumapi.asmx这里是csdn公开的api
      

  11.   

    oye 过客大好淫~大大滴好淫
      

  12.   


    你吖的笨到家了!API当然会提供这个http://blog.csdn.net/yizhu2000/archive/2008/03/28/2226087.aspx当你解析的时候人家都吖的把沙发给拿下了!
      

  13.   

    //取网页源文件
    private string GetHtmlCode(string url, Encoding encoding)
    {
        System.Net.HttpWebRequest request = (System.Net.HttpWebRequest)System.Net.WebRequest.Create(url);
        request.UserAgent = "Mozilla/4.0 (compatible; MSIE 8.0; Windows NT 5.1; Trident/4.0; .NET CLR 2.0.50727; .NET CLR 3.0.04506.648; .NET CLR 3.5.21022)";
        System.Net.WebResponse response = request.GetResponse();
        System.IO.Stream resStream = response.GetResponseStream();
        System.IO.StreamReader sr = new System.IO.StreamReader(resStream, encoding);
        string html = (sr.ReadToEnd());
        resStream.Close();
        sr.Close();
        return html;
    }
    //解析
    string html = GetHtmlCode("http://forum.csdn.net/PointForum/Forum/TopicList.aspx?Alias=FreeZone&ListType=UnClosedList&page=3", Encoding.UTF8);
    Regex reg = new Regex(@"(?isn)<a((?!href=).)*href=""(?<url>[^""]*)""[^>]*>(((?!<td\b).)*<td>){3}\s*\b0\b");
    MatchCollection mc = reg.Matches(html);
    if (mc.Count == 0)
    {
        richTextBox2.Text = "当前页没有零回复帖子!";
    }
    else
    {
        foreach (Match m in mc)
        {
            richTextBox2.Text += m.Groups["url"].Value + "\n";
        }
    }
    //输出
    http://topic.csdn.net/u/20100228/09/229f7867-41a9-41fc-bb23-a8183dc7c540.html
      

  14.   


    I LOVE YOU
    http://topic.csdn.net/u/20100228/20/9f78469a-d541-418e-829d-b24626b45721.html这个帖子,您也回下吧,我好结贴~ 谢谢 :-),发光``你别紧张``你也有分. ...
      

  15.   

    自己试了下,效率不高闲着无事,我再试下用正则解析RSS看看,= =!
      

  16.   

    呵呵,我以前也想过用自己比较擅长的正则来搞个CSDN帖子监控程序,后来发现正则在处理这类问题上,效率确实不高,实时性比较差,就放弃这想法了
      

  17.   

       web ,不大懂的,支持其他牛人的答案。