Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

关于测试您的模型的问题 #8

Open
jjyu-ustc opened this issue Jun 20, 2023 · 2 comments
Open

关于测试您的模型的问题 #8

jjyu-ustc opened this issue Jun 20, 2023 · 2 comments

Comments

@jjyu-ustc
Copy link

作者您好!我对您的工作非常感兴趣,同时我拿了您发布的权重,想要测试一下您的模型,结果发现效果并不是很理想,我问的是几个您在文档中有提及的问题,下面是我的测试记录
image
llama-7b模型本身就非常容易陷入胡说八道的情况,目前我也在做和您类似的工作,我用的是alpaca-7b的lora 微调算法,发现效果要远好于llama。同时扩充中文词汇量的工作也有人做过了,lora训练后的效果有大幅提升。不知道您接下来是否会尝试一下?目前我的工作发现用chinese-alpaca lora精调,比用llama、vicuna精调的效果都好很多。

@jerry1993-tech
Copy link
Owner

jerry1993-tech commented Jun 20, 2023

jjyu-ustc

非常感谢你的反馈!
是的,llama-7b 会存在生成的结果文不对题、以及无法自然地结束生成等情况。
我们正在选用更好的中文基础模型如 baichuan-7B等 继续做金融领域的多任务SFT 模型。
本项目-聚宝盆 作为开源项目,欢迎大家积极参与与贡献idea、代码、数据!

@luxinglong
Copy link

在baichuan2这种具有一定金融领域知识的基座模型上,是否还有必要进一步进行二次预训练呢?

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
None yet
Development

No branches or pull requests

3 participants