-
Notifications
You must be signed in to change notification settings - Fork 5.7k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
[BUG] glm-4-9b-chat模型运行问题 #4141
Comments
model_config.py 里面配置的glm-4路径不要有chatglm字样,不然fastchat会用chatglm的promt格式,导致回答停不下来。 "llm_model": {
"glm-4-9b-chat": "/home/model/glm-4-9b-chat/",
} |
按照这种方法试了一下,还是会一直输出英文。。 |
@zmalqp189 您好请问下具体是怎么修改的呢 我尝试改了一下template模版不生效 |
你们是怎么在这个框架下运行pydantic 2.0版本的,,???不是不支持吗 |
1、在\fastchat\model\model_chatglm.py文件的91行添加一个判断: 以上只是我个人临时写的解决方案,一定不是最优解,有更好的方案可以解决或者是等官方更新支持glm4。 |
@zmalqp189 非常感谢! |
参考你这个建议改了,不会出英文了,但还是自问自答,不知是否还有别的地方还需要修改? |
|
不会出现上文这样的,但每个回复末尾有个,这个问题,我觉得是我们提示词模板没设置对,glm-4默认提示词模板跟chat3-glm可能不一样,我根据@zmalqp189 改的,但还需要改fastchat最外面conversation.py,我调试下要是能解决末尾这个符号,我会提交到到fastchat |
自行回答的原因找到了,是
这里包装message时,因为使用的还是glm3的处理方式,所以query直接发送为空导致的自问自答。 这个格式如何修改暂时直接写死了做测试
@web3aipro 结尾出现<|user|>结束符,参照glm4官方给的文档,在decode时添加一个skip_special_tokens=True
|
@litterGuy 厉害确实解决了! |
这个模型类型的判断有点奇葩了,前面按模型类型判断,后面按文件夹名判断。。。 |
这段代码在哪里放着呢,请教一下 |
发现一个简单的方法,模型的保存路径不要出现'chatglm'这几个字就可以 |
好像不太行 |
是我没写对嘛 |
好像确实不行,你尝试一下用这个分支从源码安装吧https://github.com/litterGuy/FastChat/tree/main |
好的,我试一下,我把前面大家提到的方法都试了也都没有解决 |
您调通没 |
好吧,这个分支也没用,还是停不下来。。。我看还有是通过改客户端请求的 |
还没呢 |
用官方给的框架就可以用,客户端请求? |
现在改好了但是如果想要glm4-9b-chat回答一次对话带角色扮演的还是只能等 |
哥们,你是咋改好的 |
只是我个人临时写的解决方案,一定不是最理想的解决方案,或者有更好的方案可以解决或更新支持glm4。 |
mark |
最好的办法是找一个支持 glm4 能提供 openai 兼容 API 的框架,比如 xinference/ollama,然后按照 openai 的格式把模型配置到chatchat里。 |
修改方法:
|
运行glm-4-9b-chat模型时,输出结果一直在自问自答,听不下来
![Uploading 微信截图_20240606145256.png…]()
The text was updated successfully, but these errors were encountered: