--- license: apache-2.0 task_categories: - text-to-video - image-to-video language: - en size_categories: - n<1K --- [Read in English](./README.md) ## 信息 我们可以参考这些数据来确定数据混合比例。对于相同的角色,详细描述有 46 个训练样本,场景和通用信息描述有 166 个训练样本,通过 1e-3 的学习率和 1000-2000 步可以再现角色图像。 + 每个视频的长度为 `6` 秒。 + 视频的帧率为 `12` 帧每秒。 + 视频分辨率为 `宽=720 , 高=960`。 ## 数据集格式 ``` . ├── README.md ├── captions.txt ├── videos └── videos.txt ``` ## 使用方法 ```python import os from datasets import Dataset, DatasetDict dataset_dir = 'lora_dataset/Dance-VideoGeneration-Dataset' captions_file = os.path.join(dataset_dir, 'captions.txt') videos_file = os.path.join(dataset_dir, 'videos.txt') with open(captions_file, 'r', encoding='utf-8') as f: captions = f.readlines() with open(videos_file, 'r', encoding='utf-8') as f: video_paths = f.readlines() captions = [caption.strip() for caption in captions] video_paths = [video_path.strip() for video_path in video_paths] assert len(captions) == len(video_paths), f"captions.txt {len(captions)} 和 videos.txt {len(video_paths)} 行数不匹配" data = { 'text': captions, 'video': video_paths } dataset = Dataset.from_dict(data) dataset_dict = DatasetDict({ 'train': dataset }) dataset_dict ``` 以下是我们公开发布的 SAT 微调代码中 diffusers 框架的一些关键区别: - **LoRA 权重具有 rank 参数**,2B 转换模型默认为 128 的 rank,5B 转换模型默认为 256 的 rank。 - **lora_scale 计算为 alpha / lora_r**,其中 alpha 通常在 SAT 训练期间设置为 1,以确保稳定性并防止下溢。 - **更高的 rank 提供了更好的表达能力**,但它也需要更多的内存,并导致更长的训练时间。 ## 许可 该数据集依据 [Apache-2.0](LICENSE) 许可证发布。