Keras官方中文文档:高级激活层Advanced Activation

高级激活层Advanced Activation

LeakyReLU层

keras.layers.advanced_activations.LeakyReLU(alpha=0.3)

LeakyRelU是修正线性单元(Rectified Linear Unit,ReLU)的特殊版本,当不激活时,LeakyReLU仍然会有非零输出值,从而获得一个小梯度,避免ReLU可能出现的神经元“死亡”现象。即,f(x)=alpha * x for x < 0f(x) = x for x>=0

参数

  • alpha:大于0的浮点数,代表激活函数图像中第三象限线段的斜率

输入shape

任意,当使用该层为模型首层时需指定input_shape参数

输出shape

与输入相同

参考文献

Rectifier Nonlinearities Improve Neural Network Acoustic Models


PReLU层

keras.layers.advanced_activations.PReLU(alpha_initializer=‘zeros‘, alpha_regularizer=None, alpha_constraint=None, shared_axes=None)

该层为参数化的ReLU(Parametric ReLU),表达式是:f(x) = alpha * x for x < 0f(x) = x for x>=0,此处的alpha为一个与xshape相同的可学习的参数向量。

参数

  • alpha_initializer:alpha的初始化函数
  • alpha_regularizer:alpha的正则项
  • alpha_constraint:alpha的约束项
  • shared_axes:该参数指定的轴将共享同一组科学系参数,例如假如输入特征图是从2D卷积过来的,具有形如(batch, height, width, channels)这样的shape,则或许你会希望在空域共享参数,这样每个filter就只有一组参数,设定shared_axes=[1,2]可完成该目标

输入shape

任意,当使用该层为模型首层时需指定input_shape参数

输出shape

与输入相同

参考文献


ELU层

keras.layers.advanced_activations.ELU(alpha=1.0)

ELU层是指数线性单元(Exponential Linera Unit),表达式为:
该层为参数化的ReLU(Parametric ReLU),表达式是:f(x) = alpha * (exp(x) - 1.) for x < 0f(x) = x for x>=0

参数

  • alpha:控制负因子的参数

输入shape

任意,当使用该层为模型首层时需指定input_shape参数

输出shape

与输入相同

参考文献


ThresholdedReLU层

keras.layers.advanced_activations.ThresholdedReLU(theta=1.0)

该层是带有门限的ReLU,表达式是:f(x) = x for x > theta,f(x) = 0 otherwise

参数

  • theata:大或等于0的浮点数,激活门限位置

输入shape

任意,当使用该层为模型首层时需指定input_shape参数

输出shape

与输入相同

参考文献



艾伯特(http://www.aibbt.com/)国内第一家人工智能门户

原文地址:https://www.cnblogs.com/5rjscn/p/8541779.html

时间: 2024-08-27 18:02:22

Keras官方中文文档:高级激活层Advanced Activation的相关文章

Keras官方中文文档:卷积层Convolutional

卷积层 Conv1D层 keras.layers.convolutional.Conv1D(filters, kernel_size, strides=1, padding='valid', dilation_rate=1, activation=None, use_bias=True, kernel_initializer='glorot_uniform', bias_initializer='zeros', kernel_regularizer=None, bias_regularizer=

Keras官方中文文档:融合层Merge

Merge层 Merge层提供了一系列用于融合两个层或两个张量的层对象和方法.以大写首字母开头的是Layer类,以小写字母开头的是张量的函数.小写字母开头的张量函数在内部实际上是调用了大写字母开头的层. Add keras.layers.Add() 添加输入列表的图层. 该层接收一个相同shape列表张量,并返回它们的和,shape不变. Example import keras input1 = keras.layers.Input(shape=(16,)) x1 = keras.layers

Keras官方中文文档:局部连接层Locally

局部连接层LocallyConnceted LocallyConnected1D层 keras.layers.local.LocallyConnected1D(filters, kernel_size, strides=1, padding='valid', data_format=None, activation=None, use_bias=True, kernel_initializer='glorot_uniform', bias_initializer='zeros', kernel_

Keras官方中文文档:工具

utils 工具 本模块提供了一系列有用工具 CustomObjectScope keras.utils.generic_utils.CustomObjectScope() 提供定制类的作用域,在该作用域内全局定制类能够被更改,但在作用域结束后将回到初始状态.以with声明开头的代码将能够通过名字访问定制类的实例,在with的作用范围,这些定制类的变动将一直持续,在with作用域结束后,全局定制类的实例将回归其在with作用域前的状态. with CustomObjectScope({"MyOb

利用Python3内置文档资源高效学习及官方中文文档

从前面的对Python基础知识方法介绍中,我们几乎是围绕Python内置方法进行探索实践,比如字符串.列表.字典等数据结构的内置方法,和大量内置的标准库,诸如functools.time.threading等等,而我们怎么快速学习掌握并学会使用这个Python的工具集呢? 我们可以利用Python的内置文档大量资源既可以掌握许多关于Python工具集的基本使用. dir函数 Python中内置的dir函数用于提取某对象内所有属性的方法,,诸如对象的方法及属性 L = [1, 2, 3, 4] p

OkHttp 官方中文文档

OkHttp官方中文文档 本文结构 Calls Connections Recipes Interceptors HTTPS 本文翻译来自 官方OkHttp Wiki OkHttp官方中文文档 一Calls 1 请求 2 响应 3重写请求 4重写响应 5后续请求 6请求重试 7 呼叫 8调度 二Connections 1URLs URLs摘要 2 Addresses 3 Routes 4Connections 三Recipes 1同步获取 2异步获取 3访问头 4Posting a String

django2.0 官方中文文档地址

django2.0 官方开始发布中文文档了,之前还想着一直翻译完成所有有必要的内容,想着可以省事一些了,打开以后看了一下,发现官方的中文文档还没翻译完成, 现在(2018-7-10)最新章节是是  编写你的第一个 Django 补丁(https://docs.djangoproject.com/zh-hans/2.0/intro/contributing/) django 2.0 官方中文文档地址: https://docs.djangoproject.com/zh-hans/2.0/ 原文地址

一、frp官方中文文档

frp 是一个可用于内网穿透的高性能的反向代理应用,支持 tcp, udp, http, https 协议. 目录 frp 的作用 开发状态 架构 使用示例 通过 ssh 访问公司内网机器 通过自定义域名访问部署于内网的 web 服务 转发 DNS 查询请求 转发 Unix域套接字 对外提供简单的文件访问服务 安全地暴露内网服务 点对点内网穿透 通过 frpc 所在机器访问外网 功能说明 配置文件 Dashboard 身份验证 加密与压缩 客户端热加载配置文件 客户端查看代理状态 特权模式 端口

PyTorch官方中文文档:torch

torch 包 torch 包含了多维张量的数据结构以及基于其上的多种数学操作.另外,它也提供了多种工具,其中一些可以更有效地对张量和任意类型进行序列化. 它有CUDA 的对应实现,可以在NVIDIA GPU上进行张量运算(计算能力>=2.0). http://www.aibbt.com/a/pytorch/ 张量 Tensors torch.is_tensor[source] torch.is_tensor(obj) 如果obj 是一个pytorch张量,则返回True 参数: obj (Ob