一、配置
IKAnalyzer中文分詞器配置,簡單,超簡單。
IKAnalyzer中文分詞器下載,注意版本問題,貌似出現向下不兼容的問題,solr的客戶端界面Logging會提示錯誤。
給出我配置成功的版本IKAnalyzer2012FF_hf1(包含源碼和中文使用手冊),我的solr是4.7的,當然相應的Lucene也是4.7的,鏈接地址:
http://code.google.com/p/ik-analyzer/downloads/detail?name=IK%20Analyzer%202012FF_hf1.zip&can=2&q=谷歌,不過貌似已經不能下載了,國內封殺了谷歌,tmd真蛋疼。
http://down.51cto.com/data/89463851CTO上面的,有賬號有積分的支持一下吧,我也是從人家那里下載的。
百度網盤,我自己共享的,時間久了就不一定還存在。鏈接:http://pan.baidu.com/s/1bngYiKZ密碼:g7dp
廢話少說,下載后文件夾里至少有IKAnalyzer.cfg.xml、IKAnalyzer2012FF_u1.jar、stopWord.dic,只需要配置這三個東西。
把IKAnalyzer2012FF_u1.jar拷貝到Tomcat的安裝目錄,我的是C:/apache-tomcat-8.0.8/webapps/solr/WEB-INF/lib/,把IKAnalyzer.cfg.xml、stopword.dic拷貝到C:/apache-tomcat-8.0.8/webapps/solr/WEB-INF/classes/,classes目錄沒有的話自行創建。
現在IKAnalyzer中文分詞器已經配置好了,是不是超簡單,不要把目錄搞錯了就可以了。
二、使用
現在說使用,在你的scheme.xml配置(不清楚什么是scheme.xml,請移步到上一篇博客看看)文件找到<types></types>在中間加入
<!--IKAnalyzer分詞器-->
<fieldTypename="text_IKFENCHI"class="solr.TextField">
<analyzertype="index"isMaxWordLength="false"class="org.wltea.analyzer.lucene.IKAnalyzer"/>
<analyzertype="query"isMaxWordLength="true"class="org.wltea.analyzer.lucene.IKAnalyzer"/>
</fieldType>
然后在<fields>節點下增加一個節點:
新聞熱點
疑難解答