Keras的高级激活层 – 3
继续上一篇文章。
RELU
keras.layers.ReLU(max_value = None,negative_slope = 0.0,threshold = 0.0)
修正线性单元启动工作。
使用默认的esteems,它返回组件savvy max(x,0)。
另外,它追求:f(x)= max_value for x> = max_value,f(x)= x for edge <= x 主观。当利用该层作为模型中的主层时,利用表字词争用input_shape(整数元组,确实排除示例枢轴)。 与信息形状相同。 max_value:drift> = 0.最极端的启蒙自尊。 negative_slope:drift> = 0.负斜率系数。 限制:滑行。限制了阈值制定的激励。
资讯来源:由0x资讯编译自NVESTLABS。版权归作者Anusha所有,未经许可,不得转载