在Lucene.net里,怎么用分词库进行分词,能把你的代码分享一下吗,分不够,我加分

解决方案 »

  1.   

    用KTDictSeg中文分词组件,在Lucene.net里面直接用,我上次用的就是这个,KTDictSeg是肖波写的一个开源的,在google里面搜索一下,可以下到现成的源代码,要是下不到,可以找我,我给你发一份
      

  2.   

    网上流传的ChineseAnalyzer 分词,号称cnblog也用这个。实际效果比自带的还差劲,连数字都不能搜索了。搜索的数据不是分词,而且是分字。我看CSDN的搜索引擎那么垃圾,也应该是用这个。