Dataset 与 DataLoader

OneFlow 的 DatasetDataLoader 的行为与 PyTorch 的是一致的,都是为了让数据集管理与模型训练解耦。

oneflow.utils.vision.datasets 下,提供的类可以帮助我们自动下载、加载常见的数据集(如 FashionMNIST)。

DataLoader 将数据集封装为迭代器,方便训练时遍历并操作数据。

  1. import matplotlib.pyplot as plt
  2. import oneflow as flow
  3. import oneflow.nn as nn
  4. from oneflow.utils.vision.transforms import ToTensor
  5. from oneflow.utils.data import Dataset
  6. import oneflow.utils.vision.datasets as datasets

Dataset 加载数据

以下的例子展示了如何使用内置的 Dataset 加载数据。

  • root:数据集存放的路径
  • trainTrue 代表下载训练集、False 代表下载测试集
  • download=True: 如果 root 路径下数据集不存在,则从网络下载
  • transforms:指定的数据转换方式
  1. training_data = datasets.FashionMNIST(
  2. root="data",
  3. train=True,
  4. download=True,
  5. transform=ToTensor()
  6. )
  7. test_data = datasets.FashionMNIST(
  8. root="data",
  9. train=False,
  10. download=True,
  11. transform=ToTensor()
  12. )

第一次运行,会下载数据集,输出:

  1. Downloading http://fashion-mnist.s3-website.eu-central-1.amazonaws.com/train-images-idx3-ubyte.gz
  2. Downloading http://fashion-mnist.s3-website.eu-central-1.amazonaws.com/train-images-idx3-ubyte.gz to data/FashionMNIST/raw/train-images-idx3-ubyte.gz
  3. 26422272it [00:17, 1504123.86it/s]
  4. Extracting data/FashionMNIST/raw/train-images-idx3-ubyte.gz to data/FashionMNIST/raw
  5. Downloading http://fashion-mnist.s3-website.eu-central-1.amazonaws.com/train-labels-idx1-ubyte.gz
  6. Downloading http://fashion-mnist.s3-website.eu-central-1.amazonaws.com/train-labels-idx1-ubyte.gz to data/FashionMNIST/raw/train-labels-idx1-ubyte.gz
  7. 29696it [00:00, 98468.01it/s]
  8. Extracting data/FashionMNIST/raw/train-labels-idx1-ubyte.gz to data/FashionMNIST/raw
  9. Downloading http://fashion-mnist.s3-website.eu-central-1.amazonaws.com/t10k-images-idx3-ubyte.gz
  10. Downloading http://fashion-mnist.s3-website.eu-central-1.amazonaws.com/t10k-images-idx3-ubyte.gz to data/FashionMNIST/raw/t10k-images-idx3-ubyte.gz
  11. 4422656it [00:07, 620608.04it/s]
  12. Extracting data/FashionMNIST/raw/t10k-images-idx3-ubyte.gz to data/FashionMNIST/raw
  13. Downloading http://fashion-mnist.s3-website.eu-central-1.amazonaws.com/t10k-labels-idx1-ubyte.gz
  14. Downloading http://fashion-mnist.s3-website.eu-central-1.amazonaws.com/t10k-labels-idx1-ubyte.gz to data/FashionMNIST/raw/t10k-labels-idx1-ubyte.gz
  15. 6144it [00:00, 19231196.85it/s]
  16. Extracting data/FashionMNIST/raw/t10k-labels-idx1-ubyte.gz to data/FashionMNIST/raw

遍历数据

Dataset 对象,可以像 list 一样,用下标索引,比如 training_data[index]。 以下的例子,随机访问 training_data 中的9个图片,并显示。

  1. labels_map = {
  2. 0: "T-Shirt",
  3. 1: "Trouser",
  4. 2: "Pullover",
  5. 3: "Dress",
  6. 4: "Coat",
  7. 5: "Sandal",
  8. 6: "Shirt",
  9. 7: "Sneaker",
  10. 8: "Bag",
  11. 9: "Ankle Boot",
  12. }
  13. figure = plt.figure(figsize=(8, 8))
  14. cols, rows = 3, 3
  15. from random import randint
  16. for i in range(1, cols * rows + 1):
  17. sample_idx = randint(0, len(training_data))
  18. img, label = training_data[sample_idx]
  19. figure.add_subplot(rows, cols, i)
  20. plt.title(labels_map[label])
  21. plt.axis("off")
  22. plt.imshow(img.squeeze().numpy(), cmap="gray")
  23. plt.show()

fashionMNIST

自定义 Dataset

通过继承 oneflow.utils.data.Dataset 可以实现自定义 Dataset,自定义 Dataset 同样可以配合下一节介绍的 Dataloader 使用,简化数据处理的流程。

以下的例子展示了如何实现一个自定义 Dataset,它的关键步骤是:

  • 继承 oneflow.utils.data.Dataset
  • 实现类的 __len__ 方法,返回结果通常为该数据集中的样本数量
  • 实现类的 __getitem__ 方法,它的返回值对应了用户(或框架)调用 dataset_obj[idx] 时得到的结果
  1. import numpy as np
  2. class CustomDataset(Dataset):
  3. raw_data_x = np.array([[1, 2], [2, 3], [4, 6], [3, 1]], dtype=np.float32)
  4. raw_label = np.array([[8], [13], [26], [9]], dtype=np.float32)
  5. def __init__(self, transform=None, target_transform=None):
  6. self.transform = transform
  7. self.target_transform = target_transform
  8. def __len__(self):
  9. return len(raw_label)
  10. def __getitem__(self, idx):
  11. x = CustomDataset.raw_data_x[idx]
  12. label = CustomDataset.raw_label[idx]
  13. if self.transform:
  14. x = self.transform(x)
  15. if self.target_transform:
  16. label = self.target_transform(label)
  17. return x, label
  18. custom_dataset = CustomDataset()
  19. print(custom_dataset[0])
  20. print(custom_dataset[1])

输出:

  1. (array([1., 2.], dtype=float32), array([8.], dtype=float32))
  2. (array([2., 3.], dtype=float32), array([13.], dtype=float32))

使用 DataLoader

利用 Dataset 可以一次获取一条样本数据。但是在训练中,往往有其它的需求,如:一次读取 batch size 份数据;1轮 epoch 训练后,数据重新打乱(reshuffle)等。

这时候,使用 DataLoader 即可。 DataLoader 可以将 Dataset 封装为迭代器,方便训练循环中获取数据。如以下例子:

  • batch_size=64 : 指定一次迭代返回的数据 batch size
  • shuffle :是否要随机打乱数据的顺序
  1. from oneflow.utils.data import DataLoader
  2. train_dataloader = DataLoader(training_data, batch_size=64, shuffle=True)
  3. x, label = next(iter(train_dataloader))
  4. print(f"shape of x:{x.shape}, shape of label: {label.shape}")

输出:

  1. shape of x:flow.Size([64, 1, 28, 28]), shape of label: flow.Size([64])
  1. img = x[0].squeeze().numpy()
  2. label = label[0]
  3. plt.imshow(img, cmap="gray")
  4. plt.show()
  5. print(label)

输出:(随机输出一张图片)

dataloader item

  1. tensor(9, dtype=oneflow.int64)

自然我们也可以在训练的循环中,使用 Dataloader 迭代器:

  1. for x, label in train_dataloader:
  2. print(x.shape, label.shape)
  3. # training...

为正常使用来必力评论功能请激活JavaScript