FtrlOptimizer
- class
FtrlOptimizer
(learning_rate, l1=0.0, l2=0.0, lr_power=-0.5, regularization=None, name=None)[源代码]
FTRL 原始论文: ( )
- 参数:
- learning_rate (float|Variable)- 全局学习率。
- l1 (float,可选) - L1 regularization strength,默认值0.0。
- lr_power (float,可选) - 学习率降低指数,默认值-0.5。
- regularization - 正则化器,例如
fluid.regularizer.L2DecayRegularizer
。 - name (str, 可选) - 可选的名称前缀,一般无需设置,默认值为None。
- 抛出异常:
- - 如果
learning_rate
,rho
, ,momentum
为 None.
- - 如果
注意:目前, FtrlOptimizer 不支持 sparse parameter optimization。
通过更新parameter_list来添加操作,进而使损失最小化。
- 参数:
- loss (Variable) – 用于优化过程的损失值变量
- startup_program (Program) – 用于初始化在parameter_list中参数的startup_program
- parameter_list (list) – 待更新的Variables组成的列表
- grad_clip (GradClipBase|None) – 梯度裁剪的策略
返回: (optimize_ops, params_grads),数据类型为(list, list),其中optimize_ops是minimize接口为网络添加的OP列表,params_grads是一个由(param, grad)变量对组成的列表,param是Parameter,grad是该Parameter对应的梯度值
返回类型: tuple