你们单位的头也太那个了,难道google是说搞就搞出来的吗?他怎么没想到让你去开发一个新的操作系统去打败微软为国争光呢?

解决方案 »

  1.   

    这只能在winform上操作有个思路,做个机器人,搜索到关键字的内容后存到数据库。
    web查询时从数据库读取
      

  2.   

    用google的API吧,混得一日得一日.
      

  3.   

    http://www.csdn.net/develop/List_Article.asp呵呵  朋友同病相连哦  我也为这发愁哦!
      

  4.   

    用WebRequest随意抓取网页,然后分析网页上的链接,再把该链接连到的网页用WebRequest抓取分析,依次循环分析,不过完成这个任务的机器要足够快。
      

  5.   

    http://www.c-sharpcorner.com/Code/2002/Nov/GoogleSearch.asp
      

  6.   

    webdiyer(webdiyer) 这位朋友,我也想到了你的方法,但是怎么知道对方网站的结构呢?有什么办法可以取得对方网站目录和文件列表吗? 按道理讲应该没有这个权限吧。
      

  7.   

    我没说要取得对方网站目录和文件列表,你只需分析它的网页,从它的网页上的链接再分析所链接到的网页,我想Google的机器人搜索原理和这差不多吧!
      

  8.   

    我想是用一个机器人,把网页上的内容抓回来进行分析,如果找到和关键字一样的,就列出来,具体不太清楚(我在看XML时,说,XML的优点里介绍到这些内容)
    我看的是《无废话XML》
      

  9.   

    webdiyer谢谢你,有点眉目了。 还有一点算法的小问题,我们可以把链接和内容存到数据库,但是如果这个网站的内容比较多,必然会产生很多循环链接,初期肯定没关系,但是内容很多的话就麻烦了。另外一个问题就是目标网站内容定期的更新,如果是主页面更新那以前做的搜索链接就全部作废了,还要更新重做,这会严重影响性能的。
      

  10.   

    把每个已分析过的网页的url记录下来存入数据库,如果在某个网页中有此地址则跳过,可以避免重复分析。
    不会全部报废的!没有哪个网站的主页更新后所有的页面也全部更新。你可以定期对用上面方法存入数据库中的url进行检查,若该页面已不存在则立即删除,要保持搜索结果的准确性,定期搜索的间隔不能太长,当然我前面已经说过,来完成这项任务的机器配置必须高一点。
      

  11.   

    这样做实际过程中是有问题的,最起码在我知识水平范围内。 原因是这样的,对一个大型网站尤其是有bbs的那种,连接简直是用“万”这个单位来计的,有时候一个页面就上万个,这样打开一个数据库连结搜索表然后再关闭,每个页都上万次开关数据库连结,再好的机器也不行啊。