File size: 3,140 Bytes
bd87b33
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
---
annotations_creators:
- crowdsourced
language:
- ko
language_creators:
- crowdsourced
license:
- cc-by-4.0
multilinguality:
- monolingual
paperswithcode_id: imagenet
pretty_name: 'laion2b multi korean subset with image '
size_categories:
- 1M<n<10M
source_datasets:
- extended|laion/laion2B-multi
tags: []
task_categories:
- feature-extraction
task_ids: []
---

# laion2b_multi_korean_subset_with_image

## Dataset Description
- **Download Size** 342 GB

img2dataset을 통해 다운로드에 성공한 [Bingsu/laion2B-multi-korean-subset](https://huggingface.co/datasets/Bingsu/laion2B-multi-korean-subset) 이미지를 정리한 데이터셋입니다.

이미지는 950만장 ~ 1000만장 정도입니다. 메타데이터 생성에 실패한 tar파일이 있어 정확한 수치 확인이 되지 않았습니다.

이미지는 짧은 쪽 길이가 256이 되도록 리사이즈 되었으며, 품질 100인 webp파일로 다운로드 되었습니다.

## Usage

### 1. datasets

```python
>>> from datasets import load_dataset

>>> dataset = load_dataset("Bingsu/laion2b_multi_korean_subset_with_image", streaming=True, split="train")

>>> dataset.features
{'image': Image(decode=True, id=None),
 'text': Value(dtype='string', id=None),
 'width': Value(dtype='int32', id=None),
 'height': Value(dtype='int32', id=None)}

>>> next(iter(dataset))
{'image': <PIL.WebPImagePlugin.WebPImageFile image mode=RGB size=256x256>,
 'text': '소닉기어 에어폰5 휴대용 스테레오 블루투스 헤드폰',
 'width': 256,
 'height': 256}
```

### 2. webdataset

이 데이터셋은 [webdataset](https://github.com/webdataset/webdataset)으로 사용할 수 있도록 구성되어있습니다. 데이터를 다운로드하지 않고 스트리밍으로 처리한다면 1번 방법보다 훨씬 빠릅니다.

!! 아래 방법은 Windows에서는 에러가 발생합니다.

```python
>>> import webdataset as wds

>>> url = "https://huggingface.co/datasets/Bingsu/laion2b_multi_korean_subset_9782601/resolve/main/data/{00000..02122}.tar"
>>> dataset = wds.WebDataset(url).shuffle(1000).decode("pil").to_tuple("webp", "json")
```

```python
>>> next(iter(dataset))
...
```

이 글을 작성하는 현재(22-10-18), webp이미지의 자동 디코딩을 지원하지 않고 있기 때문에([PR #215](https://github.com/webdataset/webdataset/pull/215)), 직접 디코딩해야 합니다.

```python
import io
from PIL import Image
from torch.utils.data import IterableDataset

class MyDataset(IterableDataset):
    def __init__(self, dataset):
        self.dataset = dataset

    def __iter__(self):
        for img, meta in self.dataset:
            data = {
                "image": Image.open(io.BytesIO(img)),
                "text": meta["caption"],
                "width": meta["width"],
                "height": meta["height"],
            }
            yield data
```

```python
>>> my_dataset = MyDataset(dataset)
>>> next(iter(my_dataset))
{'image': <PIL.WebPImagePlugin.WebPImageFile image mode=RGB size=455x256>,
 'text': '마운트존 광유계진공펌프오일 hiren77p 피스톤 타입…',
 'width': 455,
 'height': 256}
```