StepDecay

    该接口提供 step_size 衰减学习率的功能,每经过 step_sizeepoch 时会通过 decay_rate 衰减一次学习率。

    算法可以描述为:

    参数:

    • learning_rate (float|int) - 初始化的学习率。可以是Python的float或int。

    • decay_rate (float, optional) - 学习率的衰减率。 new_lr = origin_lr * decay_rate 。其值应该小于1.0。默认:0.1。

    返回: 无

    代码示例

    ( epoch=None )

    参数:

    • epoch (int|float,可选) - 类型:int或float。指定当前的epoch数。默认:无,此时将会自动累计epoch数。

    返回:

    代码示例: