Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

大家微调后的效果怎么样?我感觉我的测试一点效果都没有...是哪里出现了问题吗? #17

Open
1148330040 opened this issue Jul 11, 2023 · 1 comment

Comments

@1148330040
Copy link

测试过程:
仅修改了
sft_config_lora.py文件的数据路径,数据格式同demo数据格式一致,还有就是修改了batch_size和epoch
微调后生成的文件:
5f647066bb397b2c6876de0e78dc464
3d8a5ff30c8253948cf50025e24d743
68f35b23aba3e5c97c35bf859626921

针对140条内部数据测试了10个epoch,最终结果是一点效果都没有...
不知道我的步骤是不是出了什么问题?还是那个配置文件没有修改?

@shell-nlp
Copy link

shell-nlp commented Aug 11, 2023

测试过程: 仅修改了 sft_config_lora.py文件的数据路径,数据格式同demo数据格式一致,还有就是修改了batch_size和epoch 微调后生成的文件: 5f647066bb397b2c6876de0e78dc464 3d8a5ff30c8253948cf50025e24d743 68f35b23aba3e5c97c35bf859626921

针对140条内部数据测试了10个epoch,最终结果是一点效果都没有... 不知道我的步骤是不是出了什么问题?还是那个配置文件没有修改?

r 要设置大一点 比如 64 或者 128
epoch 要设置大一点 比如 100
我在测试的时候 10个epoch r = 8 也是不能拟合
调大以后 就好了 拟合非常好

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

2 participants