3.9 多层感知机的从零开始实现

    这里继续使用Fashion-MNIST数据集。我们将使用多层感知机对图像进行分类。

    1. train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)

    3.9.2 定义模型参数

    我们在3.6节(softmax回归的从零开始实现)里已经介绍了,Fashion-MNIST数据集中图像形状为

    这里我们使用基础的max函数来实现ReLU,而非直接调用relu函数。

    1. def relu(X):

    3.9.4 定义模型

    同softmax回归一样,我们通过view函数将每张原始图像改成长度为num_inputs的向量。然后我们实现上一节中多层感知机的计算表达式。

      3.9.6 训练模型

      训练多层感知机的步骤和3.6节中训练softmax回归的步骤没什么区别。我们直接调用d2lzh_pytorch包中的函数,它的实现已经在3.6节里介绍过。我们在这里设超参数迭代周期数为5,学习率为100.0。

      1. epoch 1, loss 0.0030, train acc 0.714, test acc 0.753
      2. epoch 2, loss 0.0019, train acc 0.821, test acc 0.777
      3. epoch 3, loss 0.0017, train acc 0.842, test acc 0.834
      4. epoch 5, loss 0.0014, train acc 0.865, test acc 0.845
      • 当多层感知机的层数较多时,本节的实现方法会显得较烦琐,例如在定义模型参数的时候。

      注:本节除了代码之外与原书基本相同,