New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
llm-based的reranker的一些问题请教 #756
Comments
使用的是yes的logits
|
你好,第一种原理时:计算query和doc的相关性,先输出yes或者no这样的标志,然后对这个标志上的数据做logits吗? |
只使用yes的logits作为score,并不会输出yes或者no这样的标志 |
这个地方为什么是对最后一个token的hidden states做映射,一个query或者doc应该由很多个token组成的吧,最后的得分不应该是多个token组成的吗? |
这里说的"经过一个线性层转换为一个score",就是把最后一个词的向量,来预测生成下一个词的MLP吧,mlp的维度是[hidden_siize,词表的大小]?最后取yes的那个词的分值,作为最后的得分吧? |
是的,将最后一个token的hidden state转变为一个score,不过这里的LLM用的是linear层映射,而不是MLP映射 |
您好,请教一下,基于llm-based的reranker,贵团队发布了两个版本:
1.bge-reranker-v2-gemma
2.BAAI/bge-reranker-v2-minicpm-layerwise
计算query和doc的相关性,
第一种使用的是输出yes的概率值。
第二种使用的是最后一个词的向量通过一个mlp映射到1的分值,可以使用layerwise,如果不layerwise的话,可以使用一些现成的库来做比如:MiniCPMForSequenceClassification。
请问下:
1.在相同的数据下,有比较过两种方法的差异吗?
2.在相同的数据下,同一种方法,过加不加prompt描述的差异吗?
The text was updated successfully, but these errors were encountered: