conv2d

  • paddle.fluid.layers.conv2d(input, num_filters, filter_size, stride=1, padding=0, dilation=1, groups=None, param_attr=None, bias_attr=None, use_cudnn=True, act=None, name=None, data_format="NCHW")[源代码]

该OP是二维卷积层(convolution2D layer),根据输入、滤波器、步长(stride)、填充(padding)、膨胀比例(dilations)一组参数计算输出特征层大小。输入和输出是NCHW或NHWC格式,其中N是批尺寸,C是通道数,H是特征高度,W是特征宽度。滤波器是MCHW格式,M是输出图像通道数,C是输入图像通道数,H是滤波器高度,W是滤波器宽度。如果组数(groups)大于1,C等于输入图像通道数除以组数的结果。详情请参考UFLDL's : 卷积 。如果bias_attr不为False,卷积计算会添加偏置项。如果指定了激活函数类型,相应的激活函数会作用在最终结果上。

对每个输入X,有等式:

conv2d - 图1

  • 其中:
    • conv2d - 图2 :输入值,NCHW或NHWC格式的4-D Tensor
    • conv2d - 图3 :滤波器值,MCHW格式的4-D Tensor
    • conv2d - 图4 :卷积操作
    • conv2d - 图5 :偏置值,2-D Tensor,形状为 [M,1]
    • conv2d - 图6 :激活函数
    • conv2d - 图7 :输出值,NCHW或NHWC格式的4-D Tensor, 和 X 的形状可能不同

示例

  • 输入:

输入形状:

conv2d - 图8

滤波器形状:

conv2d - 图9

  • 输出:

输出形状:

conv2d - 图10

其中

conv2d - 图11

如果 padding = "SAME":

conv2d - 图12

conv2d - 图13

如果 padding = "VALID":

conv2d - 图14

  • 参数:
    • input (Variable) - 形状为 conv2d - 图15conv2d - 图16 的4-D Tensor,N是批尺寸,C是通道数,H是特征高度,W是特征宽度,数据类型为float16, float32或float64。
    • num_filters (int) - 滤波器(卷积核)的个数。和输出图像通道相同。
    • filter_size (int|list|tuple) - 滤波器大小。如果它是一个列表或元组,则必须包含两个整数值:(filter_size_height,filter_size_width)。若为一个整数,filter_size_height = filter_size_width = filter_size。
    • stride (int|list|tuple,可选) - 步长大小。滤波器和输入进行卷积计算时滑动的步长。如果它是一个列表或元组,则必须包含两个整型数:(stride_height,stride_width)。若为一个整数,stride_height = stride_width = stride。默认值:1。
    • padding (int|list|tuple|str,可选) - 填充大小。如果它是一个字符串,可以是"VALID"或者"SAME",表示填充算法,计算细节可参考上述 padding = "SAME"或 padding = "VALID" 时的计算公式。如果它是一个元组或列表,它可以有3种格式:(1)包含4个二元组:当 data_format 为"NCHW"时为 [[0,0], [0,0], [padding_height_top, padding_height_bottom], [padding_width_left, padding_width_right]],当 data_format 为"NHWC"时为[[0,0], [padding_height_top, padding_height_bottom], [padding_width_left, padding_width_right], [0,0]];(2)包含4个整数值:[padding_height_top, padding_height_bottom, padding_width_left, padding_width_right];(3)包含2个整数值:[padding_height, padding_width],此时padding_height_top = padding_height_bottom = padding_height, padding_width_left = padding_width_right = padding_width。若为一个整数,padding_height = padding_width = padding。默认值:0。
    • dilation (int|list|tuple,可选) - 膨胀比例大小。空洞卷积时会使用该参数,滤波器对输入进行卷积时,感受野里每相邻两个特征点之间的空洞信息。如果膨胀比例为列表或元组,则必须包含两个整型数:(dilation_height,dilation_width)。若为一个整数,dilation_height = dilation_width = dilation。默认值:1。
    • groups (int,可选) - 二维卷积层的组数。根据Alex Krizhevsky的深度卷积神经网络(CNN)论文中的成组卷积:当group=n,输入和滤波器分别根据通道数量平均分为n组,第一组滤波器和第一组输入进行卷积计算,第二组滤波器和第二组输入进行卷积计算,……,第n组滤波器和第n组输入进行卷积计算。默认值:1。
    • param_attr (ParamAttr,可选) - 指定权重参数属性的对象。默认值为None,表示使用默认的权重参数属性。具体用法请参见 ParamAttr
    • bias_attr (ParamAttr|bool,可选)- 指定偏置参数属性的对象。若 bias_attr 为bool类型,只支持为False,表示没有偏置参数。默认值为None,表示使用默认的偏置参数属性。具体用法请参见 ParamAttr
    • use_cudnn (bool,可选)- 是否使用cudnn内核。只有已安装cudnn库时才有效。默认值:True。
    • act (str,可选) - 激活函数类型, 如tanh、softmax、sigmoid,relu等,支持列表请参考 激活函数 。如果设为None,则未添加激活函数。默认值:None。
    • name (str,可选) – 具体用法请参见 cn_api_guide_Name ,一般无需设置,默认值:None。
    • data_format (str,可选) - 输入和输出的数据格式,可以是"NCHW"和"NHWC"。N是批尺寸,C是通道数,H是特征高度,W是特征宽度。默认值:"NCHW"。

返回:4-D Tensor,数据类型与 input 一致。如果未指定激活层,则返回卷积计算的结果,如果指定激活层,则返回卷积和激活计算之后的最终结果。

返回类型:Variable。

  • 抛出异常:
    • ValueError - 如果 use_cudnn 不是bool值。
    • ValueError - 如果 data_format 既不是"NCHW"也不是"NHWC"。
    • ValueError - 如果 input 的通道数未被明确定义。
    • ValueError - 如果 padding 是字符串,既不是"SAME"也不是"VALID"。
    • ValueError - 如果 padding 含有4个二元组,与批尺寸对应维度的值不为0或者与通道对应维度的值不为0。

代码示例

  1. import paddle.fluid as fluid
  2. import numpy as np
  3. data = fluid.layers.data(name='data', shape=[3, 32, 32], dtype='float32')
  4. param_attr = fluid.ParamAttr(name='conv2d.weight', initializer=fluid.initializer.Xavier(uniform=False), learning_rate=0.001)
  5. res = fluid.layers.conv2d(input=data, num_filters=2, filter_size=3, act="relu", param_attr=param_attr)
  6. place = fluid.CPUPlace()
  7. exe = fluid.Executor(place)
  8. exe.run(fluid.default_startup_program())
  9. x = np.random.rand(1, 3, 32, 32).astype("float32")
  10. output = exe.run(feed={"data": x}, fetch_list=[res])
  11. print(output)