我想实现一个中文分词 但现在遇到的问题是  如下图: 我是想不用C:\Program Files (x86)\Common Files\microsoft shared\DevServer\10.0这目录下的data文件夹里的sNoise.txt文件  我想把这个文件换成是数据库里的一张keywords表  以keywords表里的数据进行分词 咋么做啊?
 谢谢 各位 帮忙  中文分词 Analyzer ChineseAnalyzer

解决方案 »

  1.   

    那你就从数据库中keywords读出来,然后赋值给 STOP_WORDS
      

  2.   


    问题是只要没有  C:\Program Files (x86)\Common Files\microsoft shared\DevServer\10.0这目录下的data文件夹里的sNoise.txt文件  这个他就报错 说找不到 sNoise.txt文件 
      

  3.   

    LZ,缘分呐。
    貌似看不到跟C:\下的那份txt文件有啥关系。。
      

  4.   

    是 啊 缘分 啊  我现在 就是 想着 不用C:\下的 txt  想实现 用数据库里的一张表 做为词库 可是就是 不行 没有那个txt 他就报错 现在那个txt就是 词库 我想换掉他