Keras的高级激活层 – 3

继续上一篇文章。

RELU

keras.layers.ReLU(max_value = None,negative_slope = 0.0,threshold = 0.0)

修正线性单元启动工作。

使用默认的esteems,它返回组件savvy max(x,0)。

另外,它追求:f(x)= max_value for x> = max_value,f(x)= x for edge <= x

  • 信息形状

主观。当利用该层作为模型中的主层时,利用表字词争用input_shape(整数元组,确实排除示例枢轴)。

  • 屈服形状

与信息形状相同。

  • 争论

max_value:drift> = 0.最极端的启蒙自尊。

negative_slope:drift> = 0.负斜率系数。

限制:滑行。限制了阈值制定的激励。

资讯来源:由0x资讯编译自NVESTLABS。版权归作者Anusha所有,未经许可,不得转载
提示:投资有风险,入市需谨慎,本资讯不作为投资理财建议。请理性投资,切实提高风险防范意识;如有发现的违法犯罪线索,可积极向有关部门举报反映。
你可能还喜欢