各位,有没有人遇见过通义千问1-8b-chat模型回答都是乱码的情况,另外chatglm3-6b的8bit量化或者4位量化服务使用agent是不是不太行啊? #2633
-
1."Qwen-1_8B-Chat"无论是在线缓存,还是下载到本地,问答模式都是乱码,知识库和搜索只能调用工具,但不会总结答案; |
Beta Was this translation helpful? Give feedback.
Replies: 1 comment 1 reply
-
🤖 你好,@wu-xiaochen!我是Dosu,一个可以帮助你解决bug,回答问题和成为贡献者的机器人。在等待人类维护者的同时,我会在这里为你提供帮助。很高兴和你交流! 针对您的问题,我会尽力提供一些可能的解答和建议。
以上是我根据Langchain-Chatchat代码库的信息给出的答案,可能并不完全准确。如果您有更多的信息或者有其他的问题,欢迎继续提问。 SourcesThis response is meant to be useful and save you time. It is not meant to be a precise solution, but rather a starting point for your own research. Help me be more useful! Please leave a 👍 if this is helpful and 👎 if it is irrelevant. If you want to continue the conversation, start your reply with @dosu-bot. |
Beta Was this translation helpful? Give feedback.
肯定是不行的,本来就是GPT4才能很好胜任的任务,本地模型效果已经很差了,量化后更差了