SyncBatchNorm

    该接口用于构建 SyncBatchNorm 类的一个可调用对象,具体用法参照 代码示例 。实现了跨卡GPU同步的批归一化(Cross-GPU Synchronized Batch Normalization Layer)的功能,可用在其他层(类似卷积层和全连接层)之后进行归一化操作。根据所有GPU同一批次的数据按照通道计算的均值和方差进行归一化。更多详情请参考 :

    当模型处于训练模式时,

    SyncBatchNorm - 图1

    是所有GPU上同一minibatch的统计数据。计算公式如下:

    • SyncBatchNorm - 图2

      : 所有GPU上同一批输入数据

    • : 所有GPU上同一批次数据的大小

    SyncBatchNorm - 图3

    和 σ2βσβ2 是全局(或运行)统计数据(moving_mean和moving_variance, 这两个统计量通常来自预先训练好的模型)。计算公式如下:

    moving_mean\=moving_mean∗momentum+μβ∗(1.−momentum)moving_variance\=moving_variance∗momentum+σ2β∗(1.−momentum)//globalmean//globalvariancemoving_mean\=moving_mean∗momentum+μβ∗(1.−momentum)//globalmeanmoving_variance\=moving_variance∗momentum+σβ2∗(1.−momentum)//globalvariance

    归一化函数公式如下:

    xi^yi←xi−μβσ2β+ϵ‾‾‾‾‾‾√←γxi^+β//normalize//scale−and−shiftxi^←xi−μβσβ2+ϵ//normalizeyi←γxi^+β//scale−and−shift

    • ϵϵ : 添加较小的值到方差中以防止除零

    • ββ : 可训练的偏差参数

    注解

    如果您想用容器封装您的模型,而且您的模型在预测阶段中包含 SyncBatchNorm 这个算子的话,请使用 nn.LayerList 或者 nn.Sequential 而不要直接使用 list 来封装模型。

    参数:

    • epsilon (float, 可选) - 为了数值稳定加在分母上的值。默认值:1e-05。

    • momentum (float, 可选) - 此值用于计算 和 moving_var 。默认值:0.9。更新公式如上所示。

    • weight_attr (ParamAttr|bool, 可选) - 指定权重参数属性的对象。如果设置为 False ,则表示本层没有可训练的权重参数。默认值为None,表示使用默认的权重参数属性。具体用法请参见 ParamAttr

    形状:

    • input: 一个二维到五维的 Tensor

    • output: 和input 相同形状的 Tensor

    代码示例

    该接口用于把 BatchNorm*d 层转换为 SyncBatchNorm 层。

    参数:

    • layer (paddle.nn.Layer) - 包含一个或多个 层的模型。

    返回:

    代码示例

    1. import paddle
    2. import paddle.nn as nn
    3. sync_model = nn.SyncBatchNorm.convert_sync_batchnorm(model)