我打开一个网页后 想用程序获取编译后的网页内容
获取所有的文字、链接、图片等东西就行
我现在只能获取源码 
大家给个思路

解决方案 »

  1.   

    查找网页源码中的链接关键字 url
      

  2.   

    这个不行 你还得解析有没有各种嵌套网页 HTML的嵌套网页就很难解析
    JS什么的更麻烦 我想获取所有显示在用户眼中的链接 那自然不能自己去解析网页代码
      

  3.   

    哈哈,这个东西前两天面试一单位的时候给我列的作业,不过是 Java 的,已经搞定。
    C++ 的话,你可以用正则匹配 href= ,不区分大小写,匹配之后去掉 ' 和 "
    但是对于一些网站喜欢用 js 来加到连接的话,比较麻烦,比如 sina
      

  4.   

    从webbrowser 获取 IHTMLDocument2, 然后通过这个接口去解析HTML里的东西
      

  5.   

    去看看网络蜘蛛(爬虫)的代码,有很多!去codejoke上!分析链接!要分析文字和图片,就只能使用IHTMLDocument去获取,然后分析!图片我觉得可以采用文本搜索的方式,查找后缀,然后向前分析图片名称或者链接地址!
    但是文字,很麻烦!
    我觉得可以使用剪贴板来实现!
    打开网页后ctrl+a,然后选择性黏贴(无格式问题),就可以获取!具体怎么做就不知道!不过应该不难!