Skip to content

实现Blip2RWKV+QFormer的多模态图文对话大模型,使用Two-Step Cognitive Psychology Prompt方法,仅3B参数的模型便能够出现类人因果思维链。对标MiniGPT-4,ImageBind等图文对话大语言模型,力求以更小的算力和资源实现更好的智能效果。

License

Notifications You must be signed in to change notification settings

StarRing2022/MiniRWKV-4

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

34 Commits
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 

Repository files navigation

MiniRWKV-4

1.工程介绍:
为使RWKV模型能够具有图文描述,对话,推理等多模态图文能力,主要使用了RWKV作为LLM模型,再配合CLIP,VIT等预训练模型,和Two Stage二阶段思维连提示工程技巧,完成工作。

新添加的blip2rwkv工程,则是实现了使用预训练的RWKV Raven(RWKV World模型同理,只是词表和tokenizer不同,而Dlip-RWKV则基于了RWKV World模型)预训练模型,对图片进行编码。

要注意的是,blip2rwkv使用的RWKV Raven模型为HF格式,而非原生Pth,见https://huggingface.co/StarRing2022/RWKV-4-Raven-3B-v11-zh

2.主要聚合模型:
config/minirwkv4.yaml 文件中有详细配置
RWKV-4-Raven-3B、RWKV-4-Raven-7B(原生pth,推荐V11或V12的Eng49%-Chn49%版本)
blip-image-captioning-large、vit-gpt2-image-captioning、blip-vqa-capfilt-large、vilt-b32-finetuned-vqa、vilt-b32-finetuned-vqa(图片-文本链接模型)
EasyNMT(中英文翻译模型)

3.使用:
环境:WIN10+Torch1.31+Cuda11.6
python app.py
一些测试结果在assets文件夹

About

实现Blip2RWKV+QFormer的多模态图文对话大模型,使用Two-Step Cognitive Psychology Prompt方法,仅3B参数的模型便能够出现类人因果思维链。对标MiniGPT-4,ImageBind等图文对话大语言模型,力求以更小的算力和资源实现更好的智能效果。

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages