反向传播与 optimizer
到目前为止,我们已经掌握如何使用 OneFlow 加载数据、搭建模型、自动计算模型参数的梯度,将它们组合在一起,我们就可以利用反向传播算法训练模型。
在 oneflow.optim 中,有各类 optimizer
,它们可以简化实现反向传播的代码。
本文将先介绍反向传播的基本概念,再介绍如何使用 oneflow.optim
类。
numpy 手工实现反向传播
为了读者更方便理解反向传播与自动求导的关系,在这里提供了一份仅用 numpy 实现的简单模型的训练过程:
import numpy as np
ITER_COUNT = 500
LR = 0.01
# 前向传播
def forward(x, w):
return np.matmul(x, w)
# 损失函数
def loss(y_pred, y):
return ((y_pred - y) ** 2).sum()
# 计算梯度
def gradient(x, y, y_pred):
return np.matmul(x.T, 2 * (y_pred - y))
if __name__ == "__main__":
# 训练目标: Y = 2*X1 + 3*X2
x = np.array([[1, 2], [2, 3], [4, 6], [3, 1]], dtype=np.float32)
y = np.array([[8], [13], [26], [9]], dtype=np.float32)
w = np.array([[2], [1]], dtype=np.float32)
# 训练循环
for i in range(0, ITER_COUNT):
y_pred = forward(x, w)
l = loss(y_pred, y)
if (i + 1) % 50 == 0:
print(f"{i+1}/{500} loss:{l}")
grad = gradient(x, y, y_pred)
w -= LR * grad
print(f"w:{w}")
输出:
50/500 loss:0.0034512376878410578
100/500 loss:1.965487399502308e-06
150/500 loss:1.05524122773204e-09
200/500 loss:3.865352482534945e-12
250/500 loss:3.865352482534945e-12
300/500 loss:3.865352482534945e-12
350/500 loss:3.865352482534945e-12
400/500 loss:3.865352482534945e-12
450/500 loss:3.865352482534945e-12
500/500 loss:3.865352482534945e-12
w:[[2.000001 ]
[2.9999993]]
注意我们选择的 loss 函数表达式为 ,因此 loss
对参数 w
求梯度的代码为:
def gradient(x, y, y_pred):
return np.matmul(x.T, 2 * (y_pred - y))
更新参数采用的是 SGD:
grad = gradient(x, y, y_pred)
w -= LR*grad
总结而言,训练中的一次完整迭代包括以下步骤:
- 模型根据输入、参数,计算得出预测值 (
y_pred
) - 计算 loss,即预测值与标签之间的误差
- 求 loss 对参数的梯度
- 更新参数
其中 1~2 为前向传播过程;3~4为反向传播过程。
超参 Hyperparameters
超参数是有关模型训练设置的参数,可以影响到模型训练的效率和结果。如以上代码中的 ITER_COUNT
、LR
就是超参数。
使用 oneflow.optim
中的优化器类
使用 oneflow.optim
中的优化器类进行反向传播会更简洁方便,接下来,我们展示如何使用。
首先,先准备好数据和模型,使用 Module 的一个方便之处就是,可以把超参放置在 Module 中便于管理。
import oneflow as flow
x = flow.tensor([[1, 2], [2, 3], [4, 6], [3, 1]], dtype=flow.float32)
y = flow.tensor([[8], [13], [26], [9]], dtype=flow.float32)
class MyLrModule(flow.nn.Module):
def __init__(self, lr, iter_count):
super().__init__()
self.w = flow.nn.Parameter(flow.tensor([[2], [1]], dtype=flow.float32))
self.lr = lr
self.iter_count = iter_count
def forward(self, x):
return flow.matmul(x, self.w)
model = MyLrModule(0.01, 500)
loss 函数
然后,选择好 loss 函数,OneFlow 自带了多种 loss 函数,我们在这里选择 MSELoss:
loss = flow.nn.MSELoss(reduction="sum")
构造 optimizer
反向传播的逻辑,都被封装在 optimizer 中。我们在此选择 SGD,你可以根据需要选择其它的优化算法,如 Adam、AdamW 等。
optimizer = flow.optim.SGD(model.parameters(), model.lr)
构造 optimizer
时,将模型参数及 learning rate 传递给 SGD
。之后调用 optimizer.step()
,在其内部就会自动完成对模型参数求梯度、并按照 SGD 算法更新模型参数。
训练
以上准备完成后,可以开始训练:
for i in range(0, model.iter_count):
y_pred = model(x)
l = loss(y_pred, y)
if (i + 1) % 50 == 0:
print(f"{i+1}/{model.iter_count} loss:{l.numpy()}")
optimizer.zero_grad()
l.backward()
optimizer.step()
print(f"\nw: {model.w}")
输出:
50/500 loss:0.003451163647696376
100/500 loss:1.965773662959691e-06
150/500 loss:1.103217073250562e-09
200/500 loss:3.865352482534945e-12
250/500 loss:3.865352482534945e-12
300/500 loss:3.865352482534945e-12
350/500 loss:3.865352482534945e-12
400/500 loss:3.865352482534945e-12
450/500 loss:3.865352482534945e-12
500/500 loss:3.865352482534945e-12
w: tensor([[2.],
[3.]], dtype=oneflow.float32, grad_fn=<accumulate_grad>)
为正常使用来必力评论功能请激活JavaScript