3分钟快速上手

这篇文章将介绍如何快速上手 OneFlow ,我们可以在3分钟内完成一个完整的神经网络训练过程。

运行例子

如果已经安装好了 OneFlow ,可以使用以下命令下载文档仓库中的mlp_mnist.py脚本,并运行。

  1. wget https://docs.oneflow.org/master/code/quick_start/mlp_mnist.py #下载脚本
  2. python3 mlp_mnist.py #运行脚本

我们将得到类似以下输出:

  1. Epoch [1/20], Loss: 2.3155
  2. Epoch [1/20], Loss: 0.7955
  3. Epoch [1/20], Loss: 0.4653
  4. Epoch [1/20], Loss: 0.2064
  5. Epoch [1/20], Loss: 0.2683
  6. Epoch [1/20], Loss: 0.3167
  7. ...

输出的是一串数字,每个数字代表了训练的损失值,训练的目标是损失值越小越好。到此我们已经用 OneFlow 完成了一个完整的神经网络的训练。

代码解读

以下是完整代码,我们将对其关键部分进行解读。

  1. # mlp_mnist.py
  2. from oneflow.compatible import single_client as flow
  3. from oneflow.compatible.single_client import typing as tp
  4. import numpy as np
  5. BATCH_SIZE = 100
  6. @flow.global_function(type="train")
  7. def train_job(
  8. images: tp.Numpy.Placeholder((BATCH_SIZE, 1, 28, 28), dtype=flow.float),
  9. labels: tp.Numpy.Placeholder((BATCH_SIZE,), dtype=flow.int32),
  10. ) -> tp.Numpy:
  11. with flow.scope.placement("cpu", "0:0"):
  12. reshape = flow.reshape(images, [images.shape[0], -1])
  13. initializer1 = flow.random_uniform_initializer(-1/28.0, 1/28.0)
  14. hidden = flow.layers.dense(
  15. reshape,
  16. 500,
  17. activation=flow.nn.relu,
  18. kernel_initializer=initializer1,
  19. bias_initializer=initializer1,
  20. name="dense1",
  21. )
  22. initializer2 = flow.random_uniform_initializer(
  23. -np.sqrt(1/500.0), np.sqrt(1/500.0))
  24. logits = flow.layers.dense(
  25. hidden, 10, kernel_initializer=initializer2, bias_initializer=initializer2, name="dense2"
  26. )
  27. loss = flow.nn.sparse_softmax_cross_entropy_with_logits(labels, logits)
  28. lr_scheduler = flow.optimizer.PiecewiseConstantScheduler([], [0.001])
  29. flow.optimizer.Adam(lr_scheduler).minimize(loss)
  30. return loss
  31. if __name__ == "__main__":
  32. (train_images, train_labels), (test_images, test_labels) = flow.data.load_mnist(
  33. BATCH_SIZE, BATCH_SIZE
  34. )
  35. for epoch in range(20):
  36. for i, (images, labels) in enumerate(zip(train_images, train_labels)):
  37. loss = train_job(images, labels)
  38. if i % 20 == 0:
  39. print('Epoch [{}/{}], Loss: {:.4f}'
  40. .format(epoch + 1, 20, loss.mean()))

接下来让我们简单介绍下这段代码。

OneFlow 相对其他深度学习框架较特殊的地方是这里:

  1. @flow.global_function(type="train")
  2. def train_job(
  3. images: tp.Numpy.Placeholder((BATCH_SIZE, 1, 28, 28), dtype=flow.float),
  4. labels: tp.Numpy.Placeholder((BATCH_SIZE,), dtype=flow.int32),
  5. ) -> tp.Numpy:

train_job 是一个被 @flow.global_function 修饰的函数,通常称为 作业函数 (job function)。只有作业函数才能够被 OneFlow 识别,进行训练或者预测。通过 type 来指定 job 的类型:type="train" 为训练作业;type="predict" 为预测作业。

在 OneFlow 中,神经网络的训练或者预测需要两部分信息:

  • 一部分是这个神经网络本身的结构和相关参数,这些在上文提到的作业函数里定义;

  • 另外一部分是使用什么样的配置去训练这个网络,比如 learning rate 、模型优化更新的方法。这些在 job function 里配置如下:

    1. lr_scheduler = flow.optimizer.PiecewiseConstantScheduler([], [0.001])
    2. flow.optimizer.Adam(lr_scheduler).minimize(loss)

本文例子中包含了训练一个神经网络的所有元素,除了上面说的作业函数及其配置之外,还有:

  • flow.data.load_mnist(BATCH_SIZE,BATCH_SIZE): 准备并加载训练数据;

  • train_job(images, labels): 返回每一次训练的损失值;

  • print(..., loss.mean()): 每训练20次,打印一次损失值。

以上只是一个简单的示例,在识别 MNIST 手写体数字中,我们对使用 OneFlow 的流程进行了更加全面和具体的介绍。 在 OneFlow 基础专题中对于训练中各类问题进行了详细介绍。

我们同时还提供了一些经典网络的样例代码及数据供参考。

FAQ

  • 运行本文脚本时,为什么一直卡着不动?

    可能是环境变量中设置了错误的代理。可以先通过运行命令取消代理

    1. unset http_proxy
    2. unset https_proxy
    3. unset HTTP_PROXY
    4. unset HTTPS_PROXY

    然后再进行尝试

  • 我电脑无法联网,运行脚本时一直卡着不动

    本文脚本会自动从网络下载需要的数据文件,如果电脑无法联网,则需要点击 这里 手工下载,并将它放置在脚本 mlp_mnist.py 相同路径下,然后再进行尝试

为正常使用来必力评论功能请激活JavaScript