We read every piece of feedback, and take your input very seriously.
To see all available qualifiers, see our documentation.
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
从理论上觉得使用CHATGLM+PTUNING来做领域知识问答是可行的。不过我最近做了一些测试,发现我的微调结果不收敛,微调样本产生的效果不佳。不知道是我的方法有问题还是我微调样本太少。 目前我针对数据库服务器CPU使用率过高的一个单一问题,做了差不多1000个训练样本。不过从目前的训练效果来看,依然不是很好。请教一下,这方面有什么技巧吗?我是个新手,请多指教。
The text was updated successfully, but these errors were encountered:
No branches or pull requests
从理论上觉得使用CHATGLM+PTUNING来做领域知识问答是可行的。不过我最近做了一些测试,发现我的微调结果不收敛,微调样本产生的效果不佳。不知道是我的方法有问题还是我微调样本太少。
目前我针对数据库服务器CPU使用率过高的一个单一问题,做了差不多1000个训练样本。不过从目前的训练效果来看,依然不是很好。请教一下,这方面有什么技巧吗?我是个新手,请多指教。
The text was updated successfully, but these errors were encountered: