--- language: - zh - en --- # VisCPM 简体中文 | [English](README_en.md)
`VisCPM` is a family of open-source large multimodal models, which support multimodal conversational capabilities (`VisCPM-Chat` model) and text-to-image generation capabilities (`VisCPM-Paint` model) in both Chinese and English, achieving state-of-the-art peformance among Chinese open-source multimodal models. `VisCPM` is trained based on the large language model [CPM-Bee](https://github.com/OpenBMB/CPM-Bee) with 10B parameters, fusing visual encoder (Q-Former) and visual decoder (Diffusion-UNet) to support visual inputs and outputs. Thanks to the good bilingual capability of CPM-Bee, `VisCPM` can be pre-trained with English multimodal data only and well generalize to achieve promising Chinese multimodal capabilities. `VisCPM`是一个开源的多模态大模型系列,支持中英双语的多模态对话能力(`VisCPM-Chat`模型)和文到图生成能力(`VisCPM-Paint`模型),在中文多模态开源模型中达到最佳水平。`VisCPM`基于百亿参数量语言大模型[CPM-Bee](https://github.com/OpenBMB/CPM-Bee)(10B)训练,融合视觉编码器(`Q-Former`)和视觉解码器(`Diffusion-UNet`)以支持视觉信号的输入和输出。得益于`CPM-Bee`底座优秀的双语能力,`VisCPM`可以仅通过英文多模态数据预训练,泛化实现优秀的中文多模态能力。 ## VisCPM-Chat `VisCPM-Chat`支持面向图像进行中英双语多模态对话。该模型使用`Q-Former`作为视觉编码器,使用CPM-Bee(10B)作为语言交互基底模型,并通过语言建模训练目标融合视觉和语言模型。模型训练包括预训练和指令精调两阶段: * 预训练:我们使用约100M高质量英文图文对数据对`VisCPM-Chat`进行了预训练,数据包括CC3M、CC12M、COCO、Visual Genome、Laion等。在预训练阶段,语言模型参数保持固定,仅更新`Q-Former`部分参数,以支持大规模视觉-语言表示的高效对齐。 * 指令精调:我们采用[LLaVA-150K](https://llava-vl.github.io/)英文指令精调数据,并混合相应翻译后的中文数据对模型进行指令精调,以对齐模型多模态基础能力和用户使用意图。在指令精调阶段,我们更新全部模型参数,以提升指令精调数据的利用效率。有趣的是,我们发现即使仅采用英文指令数据进行指令精调,模型也可以理解中文问题,但仅能用英文回答。这表明模型的多语言多模态能力已经得到良好的泛化。在指令精调阶段进一步加入少量中文翻译数据,可以将模型回复语言和用户问题语言对齐。 我们在LLaVA英文测试集和翻译的中文测试集对模型进行了评测,该评测基准考察模型在开放域对话、图像细节描述、复杂推理方面的表现,并使用GPT-4进行打分。可以观察到,`VisCPM-Chat`在中文多模态能力方面取得了最佳的平均性能,在通用域对话和复杂推理表现出色,同时也表现出了不错的英文多模态能力。
模型 | 英文 | 中文 | |||||||
多模态对话 | 细节描述 | 复杂推理 | 平均 | 多模态对话 | 细节描述 | 复杂推理 | 平均 | ||
英文模型 | MiniGPT4 | 65 | 67.3 | 76.6 | 69.7 | - | - | - | - |
InstructBLIP | 81.9 | 68 | 91.2 | 80.5 | - | - | - | - | |
LLaVA | 89.5 | 70.4 | 96.2 | 85.6 | - | - | - | - | |
中英双语 | mPLUG-Owl | 64.6 | 47.7 | 80.1 | 64.2 | 76.3 | 61.2 | 77.8 | 72 |
VisualGLM | 62.4 | 63 | 80.6 | 68.7 | 76.6 | 87.8 | 83.6 | 82.7 | |
Ziya (LLaMA 13B) | 82.7 | 69.9 | 92.1 | 81.7 | 85 | 74.7 | 82.4 | 80.8 | |
VisCPM-Chat | 83.3 | 68.9 | 90.5 | 81.1 | 92.7 | 76.1 | 89.2 | 86.3 |
模型 | 英文 | 中文 | ||
FID↓ | CLIP Score↑ | FID↓ | CLIP Score↑ | |
AltDiffusion | 17.16 | 25.24 | 16.09 | 24.05 |
TaiyiDiffusion | - | - | 15.58 | 22.69 |
Stable Diffusion | 9.08 | 26.22 | - | - |
VisCPM-Paint-en | 9.51 | 25.35 | 10.86 | 23.38 |
VisCPM-Paint-zh | 9.98 | 25.04 | 9.65 | 24.17 |