Update README.md
Browse filesimport json
import shutil
import os
# JSON 파일 읽기
def read_json_file(file_path):
with open(file_path, 'r') as file:
data = json.load(file)
return data
# 파일 경로
for i in ["val", "train"]:
file_path = f'datasets/ds_01HPZPHEWSATM9C9ZDX70V0F7X/sub_{i}.json'
if i == "val":
i = "test"
# JSON 파일 읽기
json_data = read_json_file(file_path)
print(json_data['categories'])
from pycocotools.coco import COCO
coco = COCO(file_path)
coco.loadAnns(coco.getAnnIds([1]))
import jsonlines
# jsonlines 파일을 쓰기 모드로 열기
with jsonlines.open(f"datasets/cache_images/ds_01HPZPHEWSATM9C9ZDX70V0F7X/{i}/metadata.jsonl", mode="w") as writer:
# COCO 데이터셋의 모든 이미지 ID에 대해 반복
for img_id in coco.getImgIds():
# 이미지 ID에 해당하는 이미지 정보 로드
image_dict = coco.loadImgs([img_id])[0]
# 이미지 ID에 해당하는 모든 주석 로드
anns = coco.loadAnns(coco.getAnnIds([img_id]))
# ReCo를 위해 카테고리 ID 리스트 생성 (카테고리 ID는 1씩 감소)
categories = [ann["category_id"] - 1 for ann in anns]
# 주석의 바운딩 박스 리스트 생성
boxes = [ann["bbox"] for ann in anns]
try:
shutil.move(
os.path.join("datasets/cache_images/ds_01HPZPHEWSATM9C9ZDX70V0F7X", image_dict["file_name"]),
os.path.join(f"datasets/cache_images/ds_01HPZPHEWSATM9C9ZDX70V0F7X/{i}", image_dict["file_name"]),
)
except:
pass
# jsonlines 파일에 쓰기
writer.write(
{
"file_name": image_dict["file_name"],
"objects": {"bbox": boxes, "category": categories},
}
)
from datasets import load_dataset
dataset = load_dataset("imagefolder", data_dir="datasets/cache_images/ds_01HPZPHEWSATM9C9ZDX70V0F7X")
dataset.push_to_hub("danelcsb/cavity")
@@ -12,13 +12,13 @@ dataset_info:
|
|
12 |
sequence: int64
|
13 |
splits:
|
14 |
- name: train
|
15 |
-
num_bytes: 13646239
|
16 |
num_examples: 322
|
17 |
- name: test
|
18 |
-
num_bytes: 3924231
|
19 |
num_examples: 93
|
20 |
download_size: 17424795
|
21 |
-
dataset_size: 17570470
|
22 |
configs:
|
23 |
- config_name: default
|
24 |
data_files:
|
@@ -26,4 +26,13 @@ configs:
|
|
26 |
path: data/train-*
|
27 |
- split: test
|
28 |
path: data/test-*
|
29 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
12 |
sequence: int64
|
13 |
splits:
|
14 |
- name: train
|
15 |
+
num_bytes: 13646239
|
16 |
num_examples: 322
|
17 |
- name: test
|
18 |
+
num_bytes: 3924231
|
19 |
num_examples: 93
|
20 |
download_size: 17424795
|
21 |
+
dataset_size: 17570470
|
22 |
configs:
|
23 |
- config_name: default
|
24 |
data_files:
|
|
|
26 |
path: data/train-*
|
27 |
- split: test
|
28 |
path: data/test-*
|
29 |
+
license: cc-by-4.0
|
30 |
+
task_categories:
|
31 |
+
- object-detection
|
32 |
+
language:
|
33 |
+
- en
|
34 |
+
tags:
|
35 |
+
- medical
|
36 |
+
size_categories:
|
37 |
+
- n<1K
|
38 |
+
---
|