等价于
model.add(Dense(64, activation='tanh'))
你也可以通过传递一个逐元素运算的Theano/TensorFlow/CNTK函数来作为激活函数:
from keras import backend as K
model.add(Dense(64, activation=K.tanh))
softmax(x, axis=-1)
Softmax 激活函数.
Arguments
- axis: 整数, 代表softmax所作用的维度
Returns
softmax变换后的张量.
Raises
elu
selu
selu(x)
可伸缩的指数线性单元 (Klambauer et al., 2017)。
- x: 一个用来用于计算激活函数的张量或变量。
Returns
与x
具有相同类型及形状的张量。
Note
- 与 “lecun_normal” 初始化方法一起使用。
- 与 dropout 的变种 “AlphaDropout” 一起使用。
References
softsign
softsign(x)
relu
tanh(x)
sigmoid
sigmoid(x)