FtrlOptimizer

    • class FtrlOptimizer(learning_rate, l1=0.0, l2=0.0, lr_power=-0.5, regularization=None, name=None)[源代码]

    FTRL 原始论文: ( )

    • 参数:
      • learning_rate (float|Variable)- 全局学习率。
      • l1 (float,可选) - L1 regularization strength,默认值0.0。
      • lr_power (float,可选) - 学习率降低指数,默认值-0.5。
      • regularization - 正则化器,例如 fluid.regularizer.L2DecayRegularizer
      • name (str, 可选) - 可选的名称前缀,一般无需设置,默认值为None。
    • 抛出异常:
      • - 如果 learning_rate , rho , , momentum 为 None.

    注意:目前, FtrlOptimizer 不支持 sparse parameter optimization。

    通过更新parameter_list来添加操作,进而使损失最小化。

    • 参数:
      • loss (Variable) – 用于优化过程的损失值变量
      • startup_program (Program) – 用于初始化在parameter_list中参数的startup_program
      • parameter_list (list) – 待更新的Variables组成的列表
      • grad_clip (GradClipBase|None) – 梯度裁剪的策略

    返回: (optimize_ops, params_grads),数据类型为(list, list),其中optimize_ops是minimize接口为网络添加的OP列表,params_grads是一个由(param, grad)变量对组成的列表,param是Parameter,grad是该Parameter对应的梯度值

    返回类型: tuple