StepDecay
该接口提供 step_size
衰减学习率的功能,每经过 step_size
个 epoch
时会通过 decay_rate
衰减一次学习率。
算法可以描述为:
参数:
learning_rate (float|int) - 初始化的学习率。可以是Python的float或int。
decay_rate (float, optional) - 学习率的衰减率。
new_lr = origin_lr * decay_rate
。其值应该小于1.0。默认:0.1。
返回: 无
代码示例:
( epoch=None )
参数:
- epoch (int|float,可选) - 类型:int或float。指定当前的epoch数。默认:无,此时将会自动累计epoch数。
返回:
无
代码示例: