Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

support solr8 #3

Open
dzhyw opened this issue Mar 18, 2019 · 13 comments
Open

support solr8 #3

dzhyw opened this issue Mar 18, 2019 · 13 comments

Comments

@dzhyw
Copy link

dzhyw commented Mar 18, 2019

support solr8

@Spark4J
Copy link

Spark4J commented Mar 28, 2019

在solr8中, 单机启动 在创建core的时候报错
Error CREATEing SolrCore 'new_core': Unable to create core [new_core] Caused by: Can't find resource 'stopwords.txt' in classpath or 'D:\develop\solr\solr-8.0.0\server\solr\new_core'

我所用的配置文件全是resource下直接拿的, 停止词典名字理论应该是stopword.txt, 而且就算我在这两个目录创建stopwords.txt也没用, 重装solr也没用, solr版本8.0.0 jdk1.8.0_201

@Spark4J
Copy link

Spark4J commented Mar 28, 2019

运行IKAnalzyerDemo中的main方法时, 我在stopword.dic中配置了"这是一个中文", 但是分出来词条依旧是
0 - 4 : 这是一个 | CN_WORD
4 - 8 : 中文分词 | CN_WORD
8 - 9 : 的 | CN_WORD
9 - 11 : 例子 | CN_WORD
12 - 15 : 你可以 | CN_WORD
15 - 17 : 直接 | CN_WORD
17 - 19 : 运行 | CN_WORD
19 - 20 : 它 | CN_CHAR
21 - 30 : ikanalyer | ENGLISH
31 - 34 : can | ENGLISH
35 - 43 : analysis | ENGLISH
44 - 51 : english | ENGLISH
52 - 56 : text | ENGLISH
57 - 60 : too | ENGLISH

@Spark4J
Copy link

Spark4J commented Mar 28, 2019

Error CREATEing SolrCore 'new_core': Unable to create core [new_core] Caused by: Can't find resource 'stopwords.txt' in classpath or 'D:\develop\solr\solr-7.7.1\server\solr\new_core'

@Spark4J
Copy link

Spark4J commented Mar 28, 2019

好吧 其他jar也有同样的问题 只能用命令创建 然后再改scheme

@Spark4J
Copy link

Spark4J commented Mar 28, 2019

不过这个分词确实不错

@weilonger
Copy link

这个dynamicdic文件和ik.conf文件是放在我创建的集合下面的conf里面么,直接放在jar包里应该不行吧

@magese
Copy link
Owner

magese commented May 15, 2019

support solr8

done

@magese
Copy link
Owner

magese commented May 15, 2019

这个dynamicdic文件和ik.conf文件是放在我创建的集合下面的conf里面么,直接放在jar包里应该不行吧

readme中有详细说明了。
单机版的放在中间件里的WEB-INF/classes下,cloud版同conf下其它配置文件一齐上传至zk中。

@magese
Copy link
Owner

magese commented May 15, 2019

运行IKAnalzyerDemo中的main方法时, 我在stopword.dic中配置了"这是一个中文", 但是分出来词条依旧是
0 - 4 : 这是一个 | CN_WORD
4 - 8 : 中文分词 | CN_WORD
8 - 9 : 的 | CN_WORD
9 - 11 : 例子 | CN_WORD
12 - 15 : 你可以 | CN_WORD
15 - 17 : 直接 | CN_WORD
17 - 19 : 运行 | CN_WORD
19 - 20 : 它 | CN_CHAR
21 - 30 : ikanalyer | ENGLISH
31 - 34 : can | ENGLISH
35 - 43 : analysis | ENGLISH
44 - 51 : english | ENGLISH
52 - 56 : text | ENGLISH
57 - 60 : too | ENGLISH

停词我在solr8.0中测试是有效的。
如果无法使用停词也可以再分词中配置停词过滤器。
<filter class="solr.CommonGramsFilterFactory" words="stopwords.txt" ignoreCase="true"/>

@lyfuci
Copy link

lyfuci commented Aug 20, 2019

按照README的说明,把jar包放到了webapp/WEB-INF/lib/目录下,把配置文件放到了webapp/WEB-INF/classes/目录下,但是修改配置,分词器却得不到相应的反应。
image
比如,使用对"黑夜给了我黑色的眼睛”这句话分词,分词结果如下
image
然后,在动态词表中加入“我黑色的”这个词,修改ik.conf -> lastupdate属性+1,得到的分词结果并没有发生变化,重启之后也是如此,在stopword.dic和ext.dic中增加词条,分词结果也不会变化。
solr版本8.1.1
用的是自带的jetty
想问下,是否是配置的时候还有需要注意的地方吗?

@lyfuci
Copy link

lyfuci commented Aug 20, 2019

好像发现了问题,在solr控制台上,发现文件的内容出现了乱码,所以不起作用,修正之后就好了。

@fengchangfight
Copy link

solr 8.7启动报错: Caused by: java.lang.ClassNotFoundException: org.apache.lucene.analysis.util.ResourceLoaderAware

怎么破?

@magese
Copy link
Owner

magese commented Dec 30, 2020

solr 8.7启动报错: Caused by: java.lang.ClassNotFoundException: org.apache.lucene.analysis.util.ResourceLoaderAware

怎么破?

emm,我今天用8.7.0测试使用没有问题哦😓。

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

6 participants