等价于

  1. model.add(Dense(64, activation='tanh'))

你也可以通过传递一个逐元素运算的Theano/TensorFlow/CNTK函数来作为激活函数:

  1. from keras import backend as K
  2. model.add(Dense(64, activation=K.tanh))
  1. softmax(x, axis=-1)

Softmax 激活函数.

Arguments

  • axis: 整数, 代表softmax所作用的维度

Returns

softmax变换后的张量.

Raises


elu


selu

  1. selu(x)

可伸缩的指数线性单元 (Klambauer et al., 2017)。

  • x: 一个用来用于计算激活函数的张量或变量。

Returns

x具有相同类型及形状的张量。

Note

  • 与 “lecun_normal” 初始化方法一起使用。
  • 与 dropout 的变种 “AlphaDropout” 一起使用。

References



softsign

  1. softsign(x)

relu


  1. tanh(x)

sigmoid

  1. sigmoid(x)

hard_sigmoid