使用了chatglm3-6b-128k模型,知识库回答出现|user|并不断重复的问题 #3840
-
Beta Was this translation helpful? Give feedback.
Replies: 2 comments
-
针对您遇到的chatglm3-6b-128k模型输出问题,这里有一些可能的解决方案。首先,您可以尝试在处理模型输出时,检查并移除不需要的"|user|"前缀。这通常涉及到在输出解析逻辑中添加额外的步骤来剔除这些前缀。 在Langchain-Chatchat的代码库中,特别是 此外,有关于类似问题的讨论建议更新项目到最新版本,比如将Langchain-Chatchat更新到0.2.8版本,以及将fschat更新到0.33版本。还有建议在生成满意答案后,通过在 如果在尝试这些解决方案后仍遇到问题,建议查看Langchain-Chatchat的问题跟踪中的相关讨论,可能会有更多的信息和解决方案。希望这些建议能帮助您解决遇到的问题。
|
Beta Was this translation helpful? Give feedback.
-
没有找到对应的 special token 记得在vllm或者推理的时候设置end id |
Beta Was this translation helpful? Give feedback.
没有找到对应的 special token
记得在vllm或者推理的时候设置end id
然后记得调高惩罚系数